Skocz do zawartości
Gość nrm

WHT Cafe / Gadka szmatka / O wszystkim i niczym...

Polecane posty

Gość l3szcz

Ciekawy pomysł, kto się składa na przedpremierową odsłonę procka? :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość Kamikadze

Obecne highendowe procki nie ma do czego wykorzystać a oni chcą takie monstra na rynek wypuścić.

 

Bo to znowu się zaczyna wyścig procków kto da więcej ;)

Kiedyś był wyścig kto da szybszy procek i zaczęły wychodzić Pentiumy 4 coraz to szybsze a teraz "wiencej rdzeniuf" :D

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

 

Kiedyś był wyścig kto da szybszy procek i zaczęły wychodzić Pentiumy 4 coraz to szybsze a teraz "wiencej rdzeniuf"

 

Miałem (a zasadniczo ojciec miał) kiedyś "dużą" Amigę z prockiem Motoroli 68x - notabene pierwszy komputer z jakim miałem styczność. Można było na nim zrobić zasadniczo wszystko, co można zrobić na obecnych maszynach z wielordzeniowymi procesorami i dziesiątkami gigabajtów pamięci RAM. Oczywiście komfort pracy oraz jakość efektów wzrosły, niemniej jednak przez te 20 lat, różniące te maszyny, sprzęt przeszedł prawdziwą rewolucję, podczas gdy warstwa abstrakcji zaledwie ewolucję.

 

Something goes wrong. Czekamy na okulary VR i bezprzewodowe masturbatory z dostępem do LTE.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Intel zmienia taktykę na tą znaną z AMD?

e494e9b9-c780-4505-b402-b4db12a2e66f_ori

 

 

 

A tak na poważnie, jeśli te rdzenie są wydajne, to pod hosting, vps'y itp idealne :) Tylko do tego jeszcze kilkaset giga ramu :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

A ja często myślę sobie, że - za wyjątkiem gier, obróbki obrazu i dźwięku i kilku innych zastosowań - można by spokojnie z wielu współczesnych "fajerwerków" (widocznych nawet na zwyczajnych stronach internetowych) zrezygnować i taki 486 lub Pentium 1 do zastosowań domowych powinny dawać radę. Niestety nie dają...

 

Przykład: kiedyś na Amidze 600, którą miałem, program "kalkulator" dołączony do Workbench 2.0 podczas pracy potrzebował kilkadziesiąt kB pamięci operacyjnej. Dosłownie kilkadziesiąt kilobajtów. A posiadający dokładnie taką samą funkcjonalność program "kalkulator" dołączony do Windows XP potrzebuje ponad 3 MB pamięci. No do jasnej... W Amidze miałem ogółem - już po rozbudowaniu - 2 megabajty pamięci i mogłem na tym uruchomić jednocześnie i kalkulator i jakiś program do edycji tekstu i jakiś program graficzny i jakiś menadżer plików i wszystko działało. Nie było "fajerwerków", wyglądało to ubogo, ale działało, było funkcjonalne i nie były potrzebne żadne gigabajty i gigaherce, wystarczyły megabajty i megaherce.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Na razie zmiany idą w dobrym kierunku. Wygląda też na to, że szanse na polski Rotherham znacznie spadły.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość Pokuć

Zmiany idą w dobrym kierunku, nowa władza wzięła się do roboty od pierwszego dnia.

Nie jest to władza idealna i nie wszystko będzie tak jak bym sobie tego życzył i mam tego pełną świadomość.

Przecięty człowiek nie ma się czego obawiać.

Czujność powinni zachowywać tylko ci którzy oferowali overselling :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Co do CPU to ja też odczuwam, że AMD w zasadzie już od dobrych kilkunastu lat jest zawsze kilka epok za intelem, i nie zapowiada się żeby byli w stanie to nadgonić. Podobnie jak radeony zawsze są kilka epok za nvidią.

Edytowano przez Archi (zobacz historię edycji)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

A ja często myślę sobie, że - za wyjątkiem gier, obróbki obrazu i dźwięku i kilku innych zastosowań - można by spokojnie z wielu współczesnych "fajerwerków" (widocznych nawet na zwyczajnych stronach internetowych) zrezygnować i taki 486 lub Pentium 1 do zastosowań domowych powinny dawać radę. Niestety nie dają...

 

Przykład: kiedyś na Amidze 600, którą miałem, program "kalkulator" dołączony do Workbench 2.0 podczas pracy potrzebował kilkadziesiąt kB pamięci operacyjnej. Dosłownie kilkadziesiąt kilobajtów. A posiadający dokładnie taką samą funkcjonalność program "kalkulator" dołączony do Windows XP potrzebuje ponad 3 MB pamięci. No do jasnej... W Amidze miałem ogółem - już po rozbudowaniu - 2 megabajty pamięci i mogłem na tym uruchomić jednocześnie i kalkulator i jakiś program do edycji tekstu i jakiś program graficzny i jakiś menadżer plików i wszystko działało. Nie było "fajerwerków", wyglądało to ubogo, ale działało, było funkcjonalne i nie były potrzebne żadne gigabajty i gigaherce, wystarczyły megabajty i megaherce.

Trochę się pozmieniało mi się wydaje - dochodzi mnóstwo dll'ek żeby chociaż ten program wyglądał "ładnie" (okienkowo itp). Jeśli program zajmuje 3MB pamięci to nie jest problem w czasach kiedy rzadko kiedy komputer ma mniej niż 4gb pamięci, nadmierne optymalizacje tracą sens.

 

Zauważ, że popularna jest np. java czy python, albo inne języki, które z natury są wolniejsze i bardziej pamięciożerne niż np. c++, czy assembler. Chodzi często o wygodę, za którą płaci się wydajnością.

 

 

 

Co do CPU to ja też odczuwam, że AMD w zasadzie już od dobrych kilkunastu lat jest zawsze kilka epok za intelem, i nie zapowiada się żeby byli w stanie to nadgonić. Podobnie jak radeony zawsze są kilka epok za nvidią.

 

Radeony nie są kilka epok za nvidią. Nie jestem na bieżąco z rynkiem, bo wypadłem kilka lat temu, ale pamiętam czasy kart HD4780 i GTX280 i wtedy dużo ludzi wybierało Radeony. Owszem, gtx'y może były trochę wydajniejsze, ale radeona miało się za 500 czy 600 zł kiedy za gtx260 nie dużo wydajniejszego trzeba było już położyć z tysiaka. A Radeon wszystkie gry jak wychodził ogarniał wzorowo.

I wtedy był krok kiedy Radeon mocno skopał tyłek nvidii wypuszczając serię HD47x, która była wtedy w najniższym procesie technologicznym (chyba nawet niższym niż procki, bo królowały wtedy C2D w 45nm, a radeony miały 40nm), które były ciut słabsze od HD4870, ale tańsze, cichsze, chłodniejsze, mniejsze itp.

 

Jeśli chodzi o amd - skopali tyłek intelowi w czasach Pentiuma4, kopali ich do premiery C2D - a wtedy im nie wyszła pierwsza wersja phenomów - druga seria już była bardzo dobra i konkurencyjna. Jednak potem Intel wyszedł z "Core i" i niestety amd zostało zmiecione... Potem zaryzykowali z FX'ami... niestety okazały się kiepskie... Chociaż cenowo były całkiem ok (można było kupić trochę wydajniejszy procesor amd niż intela w tej samej cenie, chociaż posiadał dużo więcej mhz i rdzeni), to traciły wciągając tony prądu i będąc ciepłymi.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Trochę się pozmieniało mi się wydaje - dochodzi mnóstwo dll'ek żeby chociaż ten program wyglądał "ładnie" (okienkowo itp). Jeśli program zajmuje 3MB pamięci to nie jest problem w czasach kiedy rzadko kiedy komputer ma mniej niż 4gb pamięci, nadmierne optymalizacje tracą sens.

 

Zauważ, że popularna jest np. java czy python, albo inne języki, które z natury są wolniejsze i bardziej pamięciożerne niż np. c++, czy assembler. Chodzi często o wygodę, za którą płaci się wydajnością.

 

Ja mam na to inne spojrzenie.

 

Gry oraz inne zasobożerne produkty (mocno skompresowane - np. h264 - wideo w wysokiej rozdzielczości itp. itd.) mocno napędzają rozwój technologii, znacząco przyspieszają dodawanie gigabajtów i gigaherców. Mówię o zastosowaniach domowych i biurowych, bo to one są masowe, technologia do zastosowań profesjonalnych nie jest masowa i traktuję to trochę jako osobną gałąź.

 

Nowoczesnego sprzętu jest coraz więcej na rynku, a co za tym idzie twórcy oprogramowania, które mogłoby być oszczędne - pod względem wykorzystania zasobów - idą na łatwiznę i o tę optymalizację nie dbają, wręcz przeciwnie, do "zwyczajnych" produktów - jak np. kalkulator czy też strona internetowa z artykułami prasowymi - dokładają coraz to więcej "fajerwerków", gadżetów, upiększeń itp.

 

To z kolei powoduje, że osoby, które np. nie grają w nowoczesne gry, nie potrzebują oglądać filmów w jakości HD itd., a chciałyby jedynie skorzystać z edytora tekstu, przeglądarki zdjęć i przejrzeć jakieś teksty w internecie zostają praktycznie zmuszone do zmiany sprzętu. Zostają praktycznie do tego zmuszone.

 

Ja z wielką chęcią korzystałbym nadal ze sprzętu, który kupiłem kilkanaście lat temu. A praktycznie rzecz ujmując nie mogę. Przynajmniej w kwestii ilości pamięci i pojemności dysków twardych zostałem przymuszony do zmian. W starych przeglądarkach internetowych coraz większa ilość stron internetowych przestaje się w ogóle wyświetlać, a nowe po otwarciu kilku kart potrafią pochłonąć większość z posiadanego przeze mnie obecnie 1 gigabajta pamięci, nie wspominając o dostępnej mocy obliczeniowej procesora za sprawą "miliona" javascriptów, które w ogromnej mierze moim zdaniem są zbędne, są tylko gadżetem, żeby otoczka dla treści wyglądała ładniej, atrakcyjnej, bardziej "cool".

Edytowano przez Piotr GRD (zobacz historię edycji)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Radeony nie są kilka epok za nvidią.

 

Z kartami graficznymi jest już od pewnego czasu tak, że producenci optymalizują produkcje pod urządzenia konkretnej firmy i często gra z logo nVidii na opakowaniu działa lepiej na słabszych kartach "zielonych", niżeli na mocniejszych "czerwonych" - i vice versa.

 

To tak w kwestii spekulacji rynkiem sprzętu IT przez producentów tegoż oraz producentów oprogramowania...

 

Natomiast na pewno nie jest tak, że Radeony wiodą prym na rynku procesorów graficznych. Ścisłą czołówkę stanowią produkty nVidii - już od dłuższego czasu, podczas gdy AMD raczej stara się dotrzymać kroku (z różnym efektem), niżeli napędzać rozwój segmentu.

Edytowano przez geekboy68k (zobacz historię edycji)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość Kamikadze

Moim zdaniem im lepsze komputery (moc / pamięć) są na rynku tym coraz gorszej jakości aplikacje / systemy wychodzą. Zasobożerne i wolniejsze bo ludzie nie spędzają tyle czasu nad optymalizacją co kiedyś bo aplikacja "nie ruszy" na jakimś kompie.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dokładnie. Gdy ktoś mówi, że komputer mu "zamula", to coraz częściej pojawia się pytanie o specyfikację sprzętu, i gdy wydaje się odbiegać o zbyt wiele lat wstecz od obecnych standardów, to słyszymy argument "dziś już za kilka stówek można kupić...". Czyli proponuje się wymianę sprzętu, a nie optymalizację oprogramowania.

 

Nawet same strony internetowe... Ilu webmasterów optymalizuje swoje pod względem ilości potrzebnej pamięci i mocy obliczeniowej procesora po stronie klienta? Po stronie serwera - owszem, wiele osób stara się optymalizować działanie swoich skryptów i aplikacji, ale po stronie klienta?... Zazwyczaj ważniejszy okazuje się wygląd, płynne przejścia, animacje, czyli jak ja to nazywam "fajerwerki", bo ludzie przecież kupują oczami...

Edytowano przez Piotr GRD (zobacz historię edycji)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Piotr! 100% racji jeżeli chodzi o optymalizację witryny by po stronie klienta była lekka. Coraz mniej ludzi zwraca na to uwagę a tylko ten element świadczy kto i co tak naprawdę potrafi. Ja osobiście nazywam to internetowym syfem tz śmieciowe miejsca :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dokładnie. Gdy ktoś mówi, że komputer mu "zamula", to coraz częściej pojawia się pytanie o specyfikację sprzętu, i gdy wydaje się odbiegać o zbyt wiele lat wstecz od obecnych standardów, to słyszymy argument "dziś już za kilka stówek można kupić...". Czyli proponuje się wymianę sprzętu, a nie optymalizację oprogramowania.

 

Pojawia się propozycja modernizacji, bo z punktu widzenia statystycznego zjadacza chleba jest to jedyne sensowne rozwiązanie.

Developerzy odwalają natomiast coraz większą fuszerkę, bo chcą ciąć koszty i nauczyli się, że maszyny użytkowników są z miesiąca na miesiąc coraz mocniejsze.

 

Błędne koło się zamyka...

 

Ja na przykład, tworząc witrynę, wolę skorzystać np. z tabelek w sytuacji, gdy struktura DIV-ów byłaby skomplikowana i wiem, że responsywność w tym konkretnym momencie nie będzie potrzebna. Stosuję obrazki w sytuacji, gdy font z piktogramami znacznie zmniejsza szybkość ładowania witryny.

 

Mimo wszystko zawsze znajdzie się jakiś faszysta, który zarzuci mi brak profesjonalizmu, bo tak się nie godzi, to niezgodne z trendami. W efekcie coś, co można byłoby załatwić kilkunastoma linijkami kodu, zastępują 2 pliki, z czego CSS ma linijek kilkaset <_>

Edytowano przez geekboy68k (zobacz historię edycji)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Moim zdaniem im lepsze komputery (moc / pamięć) są na rynku tym coraz gorszej jakości aplikacje / systemy wychodzą. Zasobożerne i wolniejsze bo ludzie nie spędzają tyle czasu nad optymalizacją co kiedyś bo aplikacja "nie ruszy" na jakimś kompie.

 

Facepalm...

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość Kamikadze

 

Facepalm...

 

Rozwiń to.

 

 

Miałem kiedyś komputer z 1 rdzeniem 1GHz AMD Duron, 256 - 512MB pamięci RAM, 40GB HDD. Śmigał aż miło na nim windows XP + różne gry z tamtych czasów. Mam teraz w garażu komputer z dużo mocniejszym procesorem, więcej ramu i szybszym dyskiem a jednak XP + przeglądarka strasznie muli. Wina sprzętu? No oczywiście bo jest stary a nowa przeglądarka z przykładowym filmikiem na YT potrafi zjeść całego rdzenia takiego procesora + 500MB pamięci (lub więcej).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

 

Facepalm...

 

To raczej tutaj facepalm się przyda.

 

"Smart"fony miały 1 rdzeń i 256M RAMu i jakoś system działał. Biorę do ręki Note 2 z 4x1.6 + 2G RAM i telefon potrzebuje czasami 20s, żeby wejść do galerii, czy na customowym ROMie nie potrafi wyjść z deep sleepa, bo Samsung postanowił mieć w dupie Note 2 od Andka 4.3.

 

Fajnie, że korzystamy z zasobów w komputerach, ale zamiast je wykorzystywać robiąc coraz ładniejsze rzeczy to dostajemy syf, które wykorzystuje te zasoby czasami w 105%.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dokładnie. Optymalizacja leży po całości (praktycznie wszędzie). Na optymalizacje (stron internetowych, środowisk serwerów, systemów do zarządzania danymi, programów) firmy zazwyczaj decydują się kiedy koszt optymalizacji będzie niższy/bardzo zbliżony do kosztów zakupu ewentualnych zasobów, bądź w sytuacji podbramkowej - kiedy innego wyjścia już po prostu nie ma (bo ktoś zaprojektował coś w bardzo nieprzemyślany sposób).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość Kamikadze

 

To raczej tutaj facepalm się przyda.

 

"Smart"fony miały 1 rdzeń i 256M RAMu i jakoś system działał. Biorę do ręki Note 2 z 4x1.6 + 2G RAM i telefon potrzebuje czasami 20s, żeby wejść do galerii, czy na customowym ROMie nie potrafi wyjść z deep sleepa, bo Samsung postanowił mieć w dupie Note 2 od Andka 4.3.

 

Fajnie, że korzystamy z zasobów w komputerach, ale zamiast je wykorzystywać robiąc coraz ładniejsze rzeczy to dostajemy syf, które wykorzystuje te zasoby czasami w 105%.

 

Miałem kiedyś galaxy mini 2. Niby taniocha itp z orange za 1zł, ale pierwszego dnia już go musiałem rootować i przerabiać zarządzanie procesorem bo wejście do menu czy odblokowanie telefonu trwało kilka sekund. Telefon nowy z pudełka prosto :D

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość l3szcz

Kiedyś potrzebne były 2 Commodore x64 by wysłać człowieka w kosmos.
Dziś potrzeba 2 x 3.0 GHz żeby odpalić siódemkę.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Gość
Temat jest zablokowany i nie można w nim pisać.

×