Firma Soft Machines zaprezentowała technologie Virtualizacji umożliwiającą wykorzystanie wielu rdzeni jako jeden wątek.
Czyli jeśli ta technologia zostanie przyjęta przez producentów CPU to zamiast 4 czy 8 drogich rdzeni będziemy ich mieć kilkadziesiąt lub kilkaset tanich.
Sam News: [LINK]
Forum > Hardware > Czyżby koniec obecnej architektury CPU ?
Wysłane 2014-10-27 15:24 , Edytowane 2014-10-27 15:31
Wysłane 2014-10-27 15:39
Zadna wirtualizacja nie oferuje 100% wydajności. Poza tym sama architektura x86 ma już ponad 30 lat i tu jest jej problem, ale jest tyle softu pod nią że nie bardzo jest ją jak zastąpić. Powoli wchodzi architektura ARM, która jest znacznie wydajniejsza energetycznie, ale nim cały soft zostanie pod nią przystosowany to wiele wody upłynie.
Inna opcja to OpenCL i tutaj ile można tyle się robi...ale wciąż można niewiele, a programy nie bardzo chcą się skalować na więcej rdzeni.
Tyle teraz póki nie ładuje mi się ten pdf
Wysłane 2014-10-27 17:55 , Edytowane 2014-10-27 18:14
Dodatkowo news z pokazanym prototypem [LINK]
I Jeszce jeden [LINK]
Główni inwestorzy to AMD, Samsung and Globalfoundries :)
I pełna prezentacja [LINK]
Wysłane 2014-10-27 21:08 , Edytowane 2014-10-27 21:08
Powiedzmy sobie szczerze że prawdziwy skok wydajności będzie dopiero przy zmianie krzemu na grafen lub coś grafenowo podobnego ale to pewnie jeszcze z min 20-30 lat
Wysłane 2014-10-28 10:47
Ja bym się raczej nastawił, że procesory "są z krzemu" i bardziej się ich nie zminiaturyzuje. Przez kolejne lata będzie optymalizowana architektura, aż dojdzie do optimum i tyle. Popatrz na opony samochodowe. Robi się je z gumy od pewnie 100 lat są coraz doskonalsze, ale o rewolucji nie ma mowy. Pewnie można by stworzyć lepsze opony z jakichś kosmicznych materiałów, ale klient nie zapłaci za oponę 15000zł bo jest dużo lepsza od gumowej. Tak samo jest z krzemem. nawet german nie ma szans, bo jest za drogi. Kto zapłaci za 2x szybszy procesor 10x więcej pieniędzy? I nie mówię o płaceniu za nowości, tylko za zwykły produkt.
Wysłane 2014-10-28 23:28
@ Gakudini
Intel bada 5nm proces. Jeśli są szanse na jego opanowanie, to będziemy mieć jeszcze wiele lat 'zapasu krzemu'.
Wysłane 2014-10-30 16:18
zamiast małych kostek to będą teraz dawać procesory wielkości kart graficznych.
Wysłane 2014-10-30 22:20 , Edytowane 2014-10-30 22:20
@ Kinslayer
Tak to nie działa. Zwróć uwagę, że w grafach mamy już tysiące rdzeni, gdzie w typowym procku tylko 4.
Wysłane 2014-10-30 22:53
@Netman
W topowych prockach po 12-16 raczej, a w kartach...też w sumie kilkanaście-kilkadziesiąt niezależnych bloków CU (czy jak je tam zwać). A że te jednostki dalej się dzielą na setki małych procesorków to cóż...no taka architektura. Ale scheduler rozbija na "duże" rdzenie, nie na tysiące SP.
Wysłane 2014-10-30 22:58 , Edytowane 2014-10-30 22:59
@djluke
Zwróć uwagę, że Xeony mają bardzo powolne rdzenie. Znacznie wolniejsze od odpowiedników desktopowych.
W CPU zawsze będzie się liczyć tylko i wyłącznie wydajność na jeden wątek. Oczywiście mowa tu o domowym zastosowaniu. Procki serwerowe, to już inna bajka... ba, nawet i one idą w cień wypychane przez grafy Tesle
Odnośnie GPU. Widzisz, ale ostatecznie instrukcje są przetwarzane na 'tysiącach' wątków.
Wysłane 2014-10-31 15:49
Czemu w takim razie nie porzucimy CPU i zajmiemy się GPGPU ?Nvidia blokuje patenty czy co ? Przecież karta graficzna spokojnie może robić to co procesor, mocy obliczeniowej nei brakuje :D
Wysłane 2014-10-31 19:01 , Edytowane 2014-10-31 19:03
@Kinslayer
Posiadając dwa samochody nie dojedziemy szybciej do celu.
Specyfika działania oprogramowania. Przy normalnym sofcie liczy się wydajność jednego wątku (max paru).
Jego nie da się rozbić na tysiące innych aby obliczenia dokonywały się równolegle.
Po prostu znaczna część instrukcji musi się wykonywać synchronicznie.
Wysłane 2014-10-31 22:20 , Edytowane 2014-10-31 22:24
@Kinslayer
Czemu w takim razie nie porzucimy CPU i zajmiemy się GPGPU ?Nvidia blokuje patenty czy co ?
Raczej dlatego że Intel nie dał wygrać Nvidii. Faktycznie gdyby wygrała koncepcja GPGPU procesor nie był by dziś potrzebny w pecetach, a CPU odgrywał by w najlepszym razie rolę mostka północnego na płycie głównej.
Oczywiście przy założeniu że producenci gier dali by radę z wielowątkowością, bo takie na przykład programy do filmów skalują się pięknie.
@pi_nio
Ja tam to albo idę, albo mówię.

Wysłane 2014-11-01 01:35 , Edytowane 2014-11-01 01:38
@ kotin
Intel może zrobić procek z dwoma tysiącami wolnych rdzeni.
Natomiast nie o to chodzi. CPU w obecnej formie nie da się zastąpić. Jedynie bardzo specyficzne programy mogą się skalować. Przy całej reszcie jest to niewykonalne. Maksymalnie parę wątków, tej bariery nie da się przeskoczyć w zwyczajnym sofcie.
Wysłane 2014-11-01 10:19
Cóż pożyjemy i zobaczymy może AMD nas zaskoczy tym projektem, i skalowalność będzie przynajmniej na poziomie 60% ;)
Wysłane 2014-11-01 11:13 , Edytowane 2014-11-01 11:15
@krymtON
chyba bardziej kwestia podejscia do tworzenia softu i popularnosci gpgpu.
Są problemy, których nie da się zrównoleglić i w ich przypadku ani soft ani gpgpu nic nie da (a wbrew pozorom jest ich naprawdę sporo). Dodatkowo są problemy które da się zrównoleglić ale na mocno ograniczoną ilość zadań (co z tego, że masz 400 procesorów/rdzeni/jednostek obliczeniowych, jak przy danym problemie może pracować na raz tylko 10)
Kto jest online: 0 użytkowników, 202 gości