2000-08-07 00:00
Autor: Paul

Parę uwag o rynku pamięci komputerowych

Strona 1 - Artykuł

                Lata 1997/99 były dla rynku pamięci komputerowych ze wszech miar przełomowe. Do ciągłego głodu mocy procesorów z lat 90-96, doszedł drugi, narastający z każdym miesiącem problem – przepustowość pamięci komputerowych. Zwykłe 16 bitowe pamięci tzw. Fast Page Mode DRAM i ich kontynuacja w postaci EDO-RAM była zdecydowanie za wolna. Prędkość rzędu 70, 60 czy nawet 50 ns. całkowicie nie wystarczała dla nowej generacji procesorów, których nadejście było coraz bliższe. Rynek serwerów RISC-owych (SGI, Sun, Alpha) – wymagających największej przepustowości, ewoluował powoli przez coraz doskonalsze buforowanie strumienia danych. Po niedużym cache level 1 używanego od dawna (ale ze względu na pracę z pełną prędkością jądra procesora  bardzo drogiego) doszedł bardzo szybko zastosowany masowo cache level 2 o coraz większych pojemnościach, ale działający tylko z częścią prędkości procesora). Zarówno w wypadku komputerów x86 jak i RISC istniał jednak problem ceny komputerów z cache level 2.  Pamiętam doskonale płyty 486 sprzedawane przez mniejsze firmy w moim rodzinnym mieście w ogóle bez cache-u na płycie głównej – bez informowania o tym klienta – ceny takich zestawów były bardzo atrakcyjne, ale co z tego?

Potem w czasach Pentium I producenci płyt zmuszeni już byli zawsze stosować cache l. 2, ale aby oszczędzić na kosztach stosowano go jak najmniej – ograniczając go do najczęściej 256 kb (szczęśliwcy mogli czasem kupić płyty z 512 kb, a reszta musiała sama dokupować sobie tzw. moduły SO-DIMM z dodatkowym 256 kb cache. W tym samym czasie szybkie systemy UNIX-owe, zmuszone do używania wolnych pamięci głównych, posiadały już 2, 4 a czasem nawet 8 MB cache! I to często nie dwupoziomowego, lecz nawet trójpoziomowego (jak komputery z procesorami Alpha).Wszystko pracowało jednak na bardzo już wolnych EDO-RAM-ach. Sytuacja dojrzała do zmiany. Pierwsi zauważyli to wówczas producenci kart graficznych (procesory graficzne praktycznie nie mają dodatkowych pamięci cache na procesorze lub karcie) zastępując wolne EDO-RAM nowym standardem – SDRAM mającym 64 bitową szynę danych i dużo wyższe częstotliwości pracy.

Producenci płyt głównych reagowali wolniej – co oczywiste biorąc pod uwagę, że łatwiej jest wymienić w komputerze kartę graficzną, a samodzielnej wymiany płyty głównej podejmie się tylko 1-2 % osób (może nie w pewnym kraju Europy Wschodniej, gdzie prawie każdy grzebie w bebechach komputera).

Już pierwsze SDRAM-y działające z prędkością 12 i 10 ns dały sprzętowi strasznego kopa. Przepustowość wzrosła na tyle wysoko, że Chipzilla (INTEL) przedstawiając pierwsze Celerony w ogóle zrezygnowała z pamięci cache, co wprawdzie dało procesory tanie, ale jednak mimo wzrostu przepustowości pamięci, zbyt wolne w stosunku do ostatnich Pentium 200 MMX i 233 MMX wyposażonych w zoptymalizowany cache dwupoziomowy. Celerony uratowała doskonała podatność na podkręcanie i szybka premiera Celerona 300A, z wbudowanym niedużym, ale szybkim (full speed) cache na jądrze procesora. Ten ostatni był, szczególnie dla graczy, wręcz niesamowitym hitem. Wielu moich znajomych jeszcze niedawno używało C300@450 i to przez wiele miesięcy! Nie słyszałem o przypadku przepalenia takiego procesora.

Druga  radykalna zmiana dla rynku pamięci komputerowych to przejście platformy x86 na 100 MHz magistralę danych procesora. Dotychczasowe 66 Mhz jądra procesora i 10 ns pamięci zostało zastąpione 100 MHz prędkością jądra procesora i 8-7 ns pamięciami. Wydajność pecetów, wsparta zastąpieniem intelowego chipsetu LX przez doskonały BX, wzrosła na tyle poważnie że procesory x86 zaczęły pojawiać się w serwerach.

                Jednak za naszymi plecami, w gabinetach biurokracji firm komputerowych (INTEL, TOSHIBA, SAMSUNG i inne) zaczęły się dziać dziwne rzeczy. Mimo intensywnego rozwoju technologii SDRAM – plany magistrali 133 MHz, planowana nowa generacja DDR-SDRAM, nowo powstała korporacja RAMBUS, oferując na doskonałych warunkach pakiety swoich akcji strategicznym partnerom wymogła na nich zobowiązanie wsparcia nowej technologii pamięci. RAMBUS w założeniu to 16-bitowa pamięć o wprawdzie nie najlepszym czasie dostępu, ale o doskonałej przepustowości, pracująca z zegarem 600, 700, 800 a ostatnio nawet ponad 1 GHz. Chipzilla rozpoczęła wielką kampanię nowych chipsetów – BX miał zostać zastąpiony nową serią chipsetów: I820 (zastosowania masowe) i I840 (zastosowania profesjonalne, obsługiwana dwukrotnie większa przepustowość – ponad 2 Gb!). Cała kampania okazała się potwornie drogim niewypałem. I820 nie działa stabilnie z trzema a nawet z dwoma kostkami pamięciami RAMBUS. Przy tym jego wydajność okazała się żenująca – system z I820 z najdroższą pamięcią 800 MHz jest wolniejszy od systemu z wprowadzoną w między czasie SD-RAM 133 MHz. Wersja I820 z przelotką (MTH) do obsługi SDRAM jest również dużo wolniejszy od BX-a (szczególnie podkręconego na oficjalnie nieobsługiwaną magistralę 133). Systemy z I840 również nie zachwycają wydajnością, a są nawet 10-krotnie droższe od PC zbudowanych na BX-ach lub VIA Apollo Pro.

                Pierwszym raz wymieniłem konkurenta Chipzilli. Od dwóch lat firma ta wywołuje grymasy zdenerwowania na twarzach boss-ów INTELA (teraz to już chyba nawet przerażenia). VIA z AMD konsekwentnie wspierały najpierw Super Socket 7. A później AMD uderzyło swoim genialnym Athlonem. VIA szybko zaczęła wspierać tą technologię. Chipsety AMD Irongate i VIA KX133 zwiększyły zapotrzebowanie rynku na SDRAM-y. To właśnie VIA pokazała światu że SDRAM 133 to obecnie najlepsze rozwiązanie do komputerów desktop. Renomowani producenci pamięci – Micron, Siemens, Kingston, Hitachi i inni podchwycili wyzwanie RAMBUS-a.

                Kiedy na nasze nieszczęście, wydawało się SDRAM będzie dominował jeszcze pewien czas, a potem jednak finansowo-produkcyjno-prawna przewaga duetu INTEL-RAMBUS będzie coraz bardziej widoczna – uderzyli producenci kart graficznych. Korzystając z niewielkich ilości bardzo drogich pamięci Double Data Rate - SDRAM  (tzw. DDR_SDRAM - podwojona wydajność zwykłej pamięci) zaprezentowali karty graficzne w których przepustowość pamięci pozwoliła osiągnąć płynną animację w rozdzielczościach powyżej 1024 na 764 piksele (Chwała NVIDII z jej GeForcem). I znowu powtórzyła się historia z przejścia kart z EDO-RAM na SDRAM i przejścia tej samej ewolucji na płyty główne. VIA, AMD i  ALI już kończą produkcję pierwszych próbek płyt głównych obsługujących standard 200/266 MHz na DDR-SDRAM.

                Wszystko wskazuje że za dwa lata – trzy lata będziemy wspominali o dominacji Chipzilli ze śmiechem. Intel na rynku procesorów traci codziennie kolejne procenty sprzedaży na rzecz serii ATHLON/DURON/THUNDERBIRD. Z drugiej strony  VIA, AMD, ALI uderza z nowymi chipsetami obsługującymi DDR-SDRAM 200/266 MHz. INTEL NIE MOŻE WSPIERAĆ TECHNOLOGII DDR-SDRAM, ze względu na umowy licencyjne z RAMBUS-em. Ten ostatni w bardzo nieładny sposób spróbował zdobyć część zysków ze sprzedaży SDRAM-ów, atakując producentów tych pamięci za wykorzystywanie swoich patentów w ich pamięciach, zapominając że on sam należał do zrzeszenia firm JEDEC, które z założenia opracowywało wszelkie rozwiązania dla technologii SDRAM bez pobierania opłat licencyjnych. Wywołało to serię procesów prawnych. Niektórzy, jak HITACHI, doszli do ugody z RAMBUS-em, reszta (jak MICRON) uparcie odmawia współpracy z tą dziwaczną firmą. Wszystko wskazuje na to że Intel brnie w całkowicie ślepy zaułek. Wprawdzie jego analitycy twierdzą że następna generacja RAMBUS-owych pamięci połączona z wydajniejszymi jednostkami centralnymi INTELA będzie w końcu wyraźnie szybsza od DDR-SDRAM, czy przynajmniej od SDRAM 133, ale następny rok będzie należał do producentów DDR-SDRAM, a przecież pamięć która zaczyna proces produkcyjny na 200/266 MHz ma spory zapas mocy (SDRAM zaczął od 66 MHz i doszedł do 133-150 Mhz). Dlatego jeśli nawet RAMBUS/INTEL da radę zbliżyć wydajność swoich systemów do zestawów VIA/AMD to raczej na krótko, i za dużo większe pieniądze.

Strona 1 z 1 1