Parę uwag o rynku pamięci komputerowych
Strona 1 - Artykuł
Lata 1997/99 były dla rynku pamięci
komputerowych ze wszech miar przełomowe. Do ciągłego głodu mocy
procesorów z lat 90-96, doszedł drugi, narastający z każdym
miesiącem problem – przepustowość pamięci komputerowych.
Zwykłe 16 bitowe pamięci tzw. Fast Page Mode DRAM i ich
kontynuacja w postaci EDO-RAM była zdecydowanie za wolna. Prędkość
rzędu 70, 60 czy nawet 50 ns. całkowicie nie wystarczała dla
nowej generacji procesorów, których nadejście było coraz bliższe.
Rynek serwerów RISC-owych (SGI, Sun, Alpha) – wymagających
największej przepustowości, ewoluował powoli przez coraz
doskonalsze buforowanie strumienia danych. Po niedużym cache
level 1 używanego od dawna (ale ze względu na pracę z pełną
prędkością jądra procesora
bardzo drogiego) doszedł bardzo szybko zastosowany masowo cache
level 2 o coraz większych pojemnościach, ale działający
tylko z częścią prędkości procesora). Zarówno w wypadku
komputerów x86 jak i RISC istniał jednak problem ceny komputerów
z cache level 2. Pamiętam
doskonale płyty 486 sprzedawane przez mniejsze firmy w moim
rodzinnym mieście w ogóle bez cache-u na płycie głównej –
bez informowania o tym klienta – ceny takich zestawów były
bardzo atrakcyjne, ale co z tego?
Potem w
czasach Pentium I producenci płyt zmuszeni już byli zawsze stosować
cache l. 2, ale aby oszczędzić na kosztach stosowano go jak
najmniej – ograniczając go do najczęściej 256 kb (szczęśliwcy
mogli czasem kupić płyty z 512 kb, a reszta musiała sama dokupować
sobie tzw. moduły SO-DIMM z dodatkowym 256 kb cache. W tym samym
czasie szybkie systemy UNIX-owe, zmuszone do używania
wolnych pamięci głównych, posiadały już 2, 4 a czasem nawet 8
MB cache! I to często nie dwupoziomowego, lecz nawet trójpoziomowego
(jak komputery z procesorami Alpha).Wszystko pracowało jednak na
bardzo już wolnych EDO-RAM-ach. Sytuacja dojrzała do
zmiany. Pierwsi zauważyli to wówczas producenci kart graficznych
(procesory graficzne praktycznie nie mają dodatkowych pamięci
cache na procesorze lub karcie) zastępując wolne EDO-RAM nowym
standardem – SDRAM mającym 64 bitową szynę danych i dużo
wyższe częstotliwości pracy.
Producenci
płyt głównych reagowali wolniej – co oczywiste biorąc pod
uwagę, że łatwiej jest wymienić w komputerze kartę graficzną,
a samodzielnej wymiany płyty głównej podejmie się tylko 1-2 % osób
(może nie w pewnym kraju Europy Wschodniej, gdzie prawie każdy
grzebie w bebechach komputera).
Już
pierwsze SDRAM-y działające z prędkością 12 i 10 ns dały sprzętowi
strasznego kopa. Przepustowość wzrosła na tyle wysoko, że
Chipzilla (INTEL) przedstawiając pierwsze Celerony w
ogóle zrezygnowała z pamięci cache, co wprawdzie dało procesory
tanie, ale jednak mimo wzrostu przepustowości pamięci, zbyt wolne
w stosunku do ostatnich Pentium 200 MMX i 233 MMX wyposażonych
w zoptymalizowany cache dwupoziomowy. Celerony uratowała doskonała
podatność na podkręcanie i szybka premiera Celerona 300A,
z wbudowanym niedużym, ale szybkim (full speed) cache na jądrze
procesora. Ten ostatni był, szczególnie dla graczy, wręcz
niesamowitym hitem. Wielu moich znajomych jeszcze niedawno używało
C300@450 i to przez wiele miesięcy!
Nie słyszałem o przypadku przepalenia takiego procesora.
Druga
radykalna zmiana dla rynku pamięci komputerowych to przejście
platformy x86 na 100 MHz magistralę danych procesora. Dotychczasowe
66 Mhz jądra procesora i 10 ns pamięci zostało zastąpione 100
MHz prędkością jądra procesora i 8-7 ns pamięciami. Wydajność
pecetów, wsparta zastąpieniem intelowego chipsetu LX przez doskonały
BX, wzrosła na tyle poważnie że procesory x86 zaczęły pojawiać
się w serwerach.
Jednak za naszymi plecami,
w gabinetach biurokracji firm komputerowych (INTEL, TOSHIBA,
SAMSUNG i inne) zaczęły się dziać dziwne rzeczy. Mimo
intensywnego rozwoju technologii SDRAM – plany magistrali 133
MHz, planowana nowa generacja DDR-SDRAM, nowo powstała korporacja RAMBUS,
oferując na doskonałych warunkach pakiety swoich akcji
strategicznym partnerom wymogła na nich zobowiązanie wsparcia
nowej technologii pamięci. RAMBUS w założeniu to 16-bitowa
pamięć o wprawdzie nie najlepszym czasie dostępu, ale o doskonałej
przepustowości, pracująca z zegarem 600, 700, 800 a ostatnio nawet
ponad 1 GHz. Chipzilla rozpoczęła wielką kampanię nowych
chipsetów – BX miał zostać zastąpiony nową serią chipsetów:
I820 (zastosowania masowe) i I840 (zastosowania profesjonalne, obsługiwana
dwukrotnie większa przepustowość – ponad 2 Gb!). Cała
kampania okazała się potwornie drogim niewypałem. I820 nie
działa stabilnie z trzema a nawet z dwoma kostkami pamięciami
RAMBUS. Przy tym jego wydajność okazała się żenująca –
system z I820 z najdroższą pamięcią 800 MHz jest wolniejszy od
systemu z wprowadzoną w między czasie SD-RAM 133 MHz. Wersja I820
z przelotką (MTH) do obsługi SDRAM jest również dużo wolniejszy
od BX-a (szczególnie podkręconego na oficjalnie nieobsługiwaną
magistralę 133). Systemy z I840 również nie zachwycają wydajnością,
a są nawet 10-krotnie droższe od PC zbudowanych na BX-ach lub
VIA Apollo Pro.
Pierwszym raz wymieniłem
konkurenta Chipzilli. Od dwóch lat firma ta wywołuje grymasy
zdenerwowania na twarzach boss-ów INTELA (teraz to już
chyba nawet przerażenia). VIA z AMD konsekwentnie
wspierały najpierw Super Socket 7. A później
AMD uderzyło swoim genialnym Athlonem. VIA
szybko zaczęła wspierać tą technologię. Chipsety AMD
Irongate i VIA KX133 zwiększyły zapotrzebowanie rynku na
SDRAM-y. To właśnie VIA pokazała światu że SDRAM 133 to
obecnie najlepsze rozwiązanie do komputerów desktop. Renomowani
producenci pamięci – Micron, Siemens, Kingston,
Hitachi i inni podchwycili wyzwanie RAMBUS-a.
Kiedy na nasze nieszczęście, wydawało się SDRAM będzie dominował jeszcze pewien czas, a potem jednak finansowo-produkcyjno-prawna przewaga duetu INTEL-RAMBUS będzie coraz bardziej widoczna – uderzyli producenci kart graficznych. Korzystając z niewielkich ilości bardzo drogich pamięci Double Data Rate - SDRAM (tzw. DDR_SDRAM - podwojona wydajność zwykłej pamięci) zaprezentowali karty graficzne w których przepustowość pamięci pozwoliła osiągnąć płynną animację w rozdzielczościach powyżej 1024 na 764 piksele (Chwała NVIDII z jej GeForcem). I znowu powtórzyła się historia z przejścia kart z EDO-RAM na SDRAM i przejścia tej samej ewolucji na płyty główne. VIA, AMD i ALI już kończą produkcję pierwszych próbek płyt głównych obsługujących standard 200/266 MHz na DDR-SDRAM.
Wszystko wskazuje że za dwa lata – trzy lata będziemy wspominali o dominacji Chipzilli ze śmiechem. Intel na rynku procesorów traci codziennie kolejne procenty sprzedaży na rzecz serii ATHLON/DURON/THUNDERBIRD. Z drugiej strony VIA, AMD, ALI uderza z nowymi chipsetami obsługującymi DDR-SDRAM 200/266 MHz. INTEL NIE MOŻE WSPIERAĆ TECHNOLOGII DDR-SDRAM, ze względu na umowy licencyjne z RAMBUS-em. Ten ostatni w bardzo nieładny sposób spróbował zdobyć część zysków ze sprzedaży SDRAM-ów, atakując producentów tych pamięci za wykorzystywanie swoich patentów w ich pamięciach, zapominając że on sam należał do zrzeszenia firm JEDEC, które z założenia opracowywało wszelkie rozwiązania dla technologii SDRAM bez pobierania opłat licencyjnych. Wywołało to serię procesów prawnych. Niektórzy, jak HITACHI, doszli do ugody z RAMBUS-em, reszta (jak MICRON) uparcie odmawia współpracy z tą dziwaczną firmą. Wszystko wskazuje na to że Intel brnie w całkowicie ślepy zaułek. Wprawdzie jego analitycy twierdzą że następna generacja RAMBUS-owych pamięci połączona z wydajniejszymi jednostkami centralnymi INTELA będzie w końcu wyraźnie szybsza od DDR-SDRAM, czy przynajmniej od SDRAM 133, ale następny rok będzie należał do producentów DDR-SDRAM, a przecież pamięć która zaczyna proces produkcyjny na 200/266 MHz ma spory zapas mocy (SDRAM zaczął od 66 MHz i doszedł do 133-150 Mhz). Dlatego jeśli nawet RAMBUS/INTEL da radę zbliżyć wydajność swoich systemów do zestawów VIA/AMD to raczej na krótko, i za dużo większe pieniądze.