Pamiętaj Wszystko. Ewolucja Pamięci Komputerowej - Alternatywny Widok

Spisu treści:

Pamiętaj Wszystko. Ewolucja Pamięci Komputerowej - Alternatywny Widok
Pamiętaj Wszystko. Ewolucja Pamięci Komputerowej - Alternatywny Widok

Wideo: Pamiętaj Wszystko. Ewolucja Pamięci Komputerowej - Alternatywny Widok

Wideo: Pamiętaj Wszystko. Ewolucja Pamięci Komputerowej - Alternatywny Widok
Wideo: To plemię nigdy nie śpi – najszczęśliwsi ludzie na świecie! Też tak chcę! 2024, Wrzesień
Anonim

W starożytności - to było prawie 80 lat temu, u zarania technologii komputerowej - pamięć urządzeń komputerowych była zwykle dzielona na trzy typy. Pierwotne, wtórne i zewnętrzne. Teraz nikt nie używa tej terminologii, chociaż sama klasyfikacja istnieje do dziś. Tylko pamięć podstawowa jest teraz nazywana operacyjną, pomocnicza - wewnętrzne dyski twarde, a zewnętrzna jest zamaskowana jako wszelkiego rodzaju dyski optyczne i dyski flash.

Zanim zaczniemy podróż w przeszłość, zrozummy powyższą klasyfikację i zrozummy, do czego służy każdy rodzaj pamięci. Komputer przedstawia informację w postaci sekwencji bitów - cyfr binarnych o wartościach 1 lub 0. Ogólnie przyjęta uniwersalna jednostka informacji to bajt, zwykle składający się z 8 bitów. Wszystkie dane używane przez komputer zajmują określoną liczbę bajtów. Na przykład typowy plik muzyczny ma 40 milionów bitów - 5 milionów bajtów (lub 4,8 megabajtów). Centralny procesor nie może funkcjonować bez elementarnego urządzenia pamięciowego, ponieważ cała jego praca sprowadza się do odbierania, przetwarzania i zapisywania z powrotem do pamięci. Dlatego legendarny John von Neumann (jego nazwisko wspominaliśmy niejednokrotnie w serii artykułów o mainframe'ach) wymyślił niezależną strukturę wewnątrz komputera,gdzie przechowywane byłyby wszystkie niezbędne dane.

Klasyfikacja pamięci wewnętrznej dzieli również nośniki zgodnie z zasadą szybkości (i energii). Szybka pamięć podstawowa (o dostępie swobodnym) jest obecnie używana do przechowywania krytycznych informacji, do których procesor ma najczęściej dostęp. To jest jądro systemu operacyjnego, pliki wykonywalne uruchomionych programów, pośrednie wyniki obliczeń. Czas dostępu jest minimalny, zaledwie kilka nanosekund.

Pamięć podstawowa komunikuje się z kontrolerem znajdującym się wewnątrz procesora (w najnowszych modelach CPU) lub jako oddzielny układ na płycie głównej (mostek północny). Cena pamięci RAM jest stosunkowo wysoka, poza tym jest niestabilna: wyłączyli komputer lub przypadkowo wyciągnęli przewód zasilający z gniazda - i wszystkie informacje zostały utracone. Dlatego wszystkie pliki są przechowywane w pamięci dodatkowej - na talerzach dysków twardych. Informacje tutaj nie są usuwane po awarii zasilania, a cena za megabajt jest bardzo niska. Jedyną wadą dysków twardych jest niska prędkość reakcji, mierzona jest już w milisekundach.

Nawiasem mówiąc, ciekawy fakt. U zarania rozwoju komputerów pamięć podstawowa nie była oddzielana od pamięci dodatkowej. Główna jednostka przetwarzająca działała bardzo wolno, a pamięć nie powodowała efektu wąskiego gardła. Dane online i trwałe były przechowywane w tych samych komponentach. Później, gdy prędkość komputerów wzrosła, pojawiły się nowe typy nośników danych.

Powrót do przeszłości

Jednym z głównych elementów pierwszych komputerów były przełączniki elektromagnetyczne, opracowane przez słynnego amerykańskiego naukowca Josepha Henry'ego w 1835 roku, kiedy nikt nawet nie śnił o żadnym komputerze. Prosty mechanizm składał się z metalowego rdzenia owiniętego drutem, ruchomych żelaznych łączników i kilku styków. Rozwój Henry'ego stał się podstawą telegrafu elektrycznego Samuela Morse'a i Charlesa Whitstone'a.

Film promocyjny:

Image
Image

Pierwszy komputer oparty na przełącznikach pojawił się w Niemczech w 1939 roku. Inżynier Konrad Süs wykorzystał je do stworzenia logiki systemowej urządzenia Z2. Niestety samochód nie żył długo, a jego plany i zdjęcia zaginęły podczas bombardowań w czasie II wojny światowej. Kolejne urządzenie obliczeniowe Sius (pod nazwą Z3) zostało wydane w 1941 roku. Był to pierwszy komputer sterowany przez program. Główne funkcje maszyny realizowane były za pomocą 2000 przełączników. Konrad zamierzał przenieść system na bardziej nowoczesne komponenty, ale rząd zamknął finansowanie, wierząc, że pomysły Siusa nie mają przyszłości. Podobnie jak jego poprzednik, Z3 został zniszczony podczas nalotów bombowych aliantów.

Przełączniki elektromagnetyczne działały bardzo wolno, ale rozwój technologii nie zatrzymał się. Drugim typem pamięci dla wczesnych systemów komputerowych były linie opóźniające. Informacje były przenoszone przez impulsy elektryczne, które przekształcane były w fale mechaniczne iz małą prędkością przemieszczały się przez rtęć, kryształ piezoelektryczny lub cewkę magnetorezystywną. Jest fala - 1, nie ma fali - 0. Setki i tysiące impulsów mogą przejść przez materiał przewodzący w jednostce czasu. Na końcu swojej ścieżki każda fala została przekształcona z powrotem w impuls elektryczny i wysłana na początek - oto najprostsza operacja aktualizacji dla Ciebie.

Linię opóźniającą opracował amerykański inżynier John Presper Eckert. Wprowadzony w 1946 roku komputer EDVAC zawierał dwa bloki pamięci z 64 liniami opóźniającymi na bazie rtęci (5,5 KB według współczesnych standardów). W tamtym czasie to było więcej niż wystarczające do pracy. Pamięć wtórna była również obecna w EDVAC - wyniki obliczeń zapisywano na taśmie magnetycznej. Inny system, UNIVAC 1, który został wydany w 1951 roku, wykorzystywał 100 bloków opartych na liniach opóźniających i miał złożoną konstrukcję z wieloma fizycznymi elementami do przechowywania danych.

Pamięć linii opóźniającej przypomina bardziej hiperprzestrzenny silnik statku kosmicznego. Trudno to sobie wyobrazić, ale taki kolos mógł przechowywać tylko kilka bitów danych
Pamięć linii opóźniającej przypomina bardziej hiperprzestrzenny silnik statku kosmicznego. Trudno to sobie wyobrazić, ale taki kolos mógł przechowywać tylko kilka bitów danych

Pamięć linii opóźniającej przypomina bardziej hiperprzestrzenny silnik statku kosmicznego. Trudno to sobie wyobrazić, ale taki kolos mógł przechowywać tylko kilka bitów danych!

Dzieci Bobka

Za kulisami naszych badań pozostały dwa dość znaczące wynalazki w dziedzinie nośników danych. Obie zostały wykonane przez utalentowanego pracownika Bell Labs Andrew Bobka. Pierwszy wynalazek, tak zwana pamięć twistorowa, mogłaby być doskonałą alternatywą dla pamięci z rdzeniem magnetycznym. W dużej mierze powtórzyła to drugie, ale zamiast pierścieni ferrytowych do przechowywania danych użyła taśmy magnetycznej. Technologia miała dwie ważne zalety. Po pierwsze, pamięć skrętki mogła jednocześnie zapisywać i odczytywać informacje z wielu skrętników. Ponadto skonfigurowanie automatycznej produkcji było łatwe. Firma Bell Labs miała nadzieję, że znacznie obniży to cenę pamięci twistorowej i zajmie obiecujący rynek.

Image
Image

Rozwój został sfinansowany przez siły powietrzne USA, a pamięć miała stać się ważną komórką funkcjonalną pocisków Nike Sentinel. Niestety praca nad skrętkami trwała długo, a na pierwszy plan wysunęła się pamięć oparta na tranzystorach. Nie doszło do zdobycia rynku.

„Pech za pierwszym razem, tak szczęśliwy za drugim” - pomyślał Bell Labs. We wczesnych latach 70-tych Andrzej Bobek wprowadził nieulotną pamięć bąbelkową. Opierał się na cienkiej warstwie magnetycznej, która zawierała małe namagnesowane obszary (pęcherzyki), w których przechowywane są wartości binarne. Po pewnym czasie pojawiło się pierwsze kompaktowe ogniwo o pojemności 4096 bitów - urządzenie o powierzchni jednego centymetra kwadratowego miało pojemność całego paska z rdzeniami magnetycznymi.

Wynalazkiem zainteresowało się wiele firm, aw połowie lat 70. wszyscy główni gracze rynkowi zajęli się rozwojem w dziedzinie pamięci bąbelkowej. Nieulotna struktura sprawiła, że bąbelki były idealnym zamiennikiem zarówno pamięci podstawowej, jak i dodatkowej. Ale nawet tutaj plany Bell Labs się nie spełniły - tanie dyski twarde i pamięć tranzystorowa zablokowały tlen technologii bąbelkowej.

Odkurzacz to dla nas wszystko

Pod koniec lat czterdziestych logika systemowa komputerów przeniosła się na lampy próżniowe (są to również lampy elektroniczne lub wałki termiczne). Wraz z nimi telewizja, urządzenia do odtwarzania dźwięku, komputery analogowe i cyfrowe otrzymały nowy impuls do rozwoju.

Lampy próżniowe przetrwały w technologii do dziś. Są szczególnie lubiane przez audiofilów. Uważa się, że układ wzmacniający oparty na lampach próżniowych przewyższa nowoczesne analogi w jakości dźwięku
Lampy próżniowe przetrwały w technologii do dziś. Są szczególnie lubiane przez audiofilów. Uważa się, że układ wzmacniający oparty na lampach próżniowych przewyższa nowoczesne analogi w jakości dźwięku

Lampy próżniowe przetrwały w technologii do dziś. Są szczególnie lubiane przez audiofilów. Uważa się, że układ wzmacniający oparty na lampach próżniowych przewyższa nowoczesne analogi w jakości dźwięku.

Pod tajemniczym określeniem „lampa próżniowa” to raczej prosty element konstrukcji. Przypomina zwykłą żarówkę. Włókno jest zamknięte w bezpowietrznej przestrzeni, a po podgrzaniu emituje elektrony, które opadają na dodatnio naładowaną metalową płytkę. Pod napięciem wewnątrz lampy generowany jest strumień elektronów. Rura próżniowa może przepuszczać lub blokować (fazy 1 i 0) przepływający przez nią prąd, działając jako element elektroniczny komputerów. Podczas pracy lampy próżniowe bardzo się nagrzewają, należy je intensywnie schładzać. Ale są znacznie szybsze niż przełączniki przedpotopowe.

Pamięć podstawowa oparta na tej technologii pojawiła się w latach 1946-1947, kiedy wynalazcy Freddie Williams i Tom Kilburn przedstawili fajkę Williams-Kilburn. Sposób przechowywania danych był bardzo pomysłowy. W pewnych warunkach na rurze pojawił się punkt świetlny, który lekko naładował zajmowaną powierzchnię. Obszar wokół punktu uzyskał ładunek ujemny (nazywano go „studnią energetyczną”). Nowy punkt można umieścić w „studni” lub pozostawić bez opieki - wtedy pierwotny punkt szybko zniknąłby. Transformacje te zostały zinterpretowane przez kontroler pamięci jako fazy binarne 1 i 0. Technologia ta była bardzo popularna. Pamięć lampowa Williams-Kilburn została zainstalowana w komputerach Ferranti Mark 1, IAS, UNIVAC 1103, IBM 701, IBM 702 i Standards Western Automatic Computer (SWAC).

Równolegle inżynierowie z Radio Corporation of America pod kierownictwem naukowca Vladimira Zvorykina opracowywali własną lampę, zwaną selekcjonronem. Zgodnie z pomysłem autorów selektron miał zawierać do 4096 bitów informacji, czyli czterokrotnie więcej niż tuba Williamsa-Kilburna. Szacowano, że do końca 1946 roku zostanie wyprodukowanych około 200 selektorów, ale produkcja okazała się bardzo droga.

Do wiosny 1948 roku Radio Corporation of America nie wypuściło ani jednego selektora, ale prace nad koncepcją trwały. Inżynierowie przeprojektowali lampę i jest teraz dostępna mniejsza, 256-bitowa wersja. Mini-selektory były szybsze i bardziej niezawodne niż lampy Williams-Kilburn, ale kosztują 500 $ za sztukę. I to jest w masowej produkcji! Selekcjonerom udało się jednak dostać do maszyny obliczeniowej - w 1953 roku firma RAND wypuściła komputer pod zabawną nazwą JOHNNIAC (na cześć Johna von Neumanna). W systemie zainstalowano zredukowane 256-bitowe selektory, a całkowita pamięć wynosiła 32 bajty.

Oprócz lamp próżniowych niektóre ówczesne komputery korzystały z pamięci bębnowej, wynalezionej przez Gustava Tauscka w 1939 roku. Prosta konstrukcja obejmowała duży metalowy cylinder pokryty stopem ferromagnetycznym. Głowice czytające, w przeciwieństwie do nowoczesnych dysków twardych, nie poruszały się po powierzchni cylindra. Kontroler pamięci czekał, aż informacja sama przejdzie pod głowami. Pamięć bębna była używana w komputerze Atanasov-Berry i kilku innych systemach. Niestety jego wydajność była bardzo niska.

Selektron nie był skazany na podbój rynku komputerów - schludnie wyglądające elementy elektroniczne pozostały gromadząc kurz na śmietniku historii. I to pomimo znakomitych właściwości technicznych
Selektron nie był skazany na podbój rynku komputerów - schludnie wyglądające elementy elektroniczne pozostały gromadząc kurz na śmietniku historii. I to pomimo znakomitych właściwości technicznych

Selektron nie był skazany na podbój rynku komputerów - schludnie wyglądające elementy elektroniczne pozostały gromadząc kurz na śmietniku historii. I to pomimo znakomitych właściwości technicznych.

Współczesne tendencje

W tej chwili podstawowym rynkiem pamięci rządzi standard DDR. Dokładniej, jego druga generacja. Przejście na DDR3 nastąpi już niedługo - pozostaje jeszcze czekać na pojawienie się niedrogich chipsetów obsługujących nowy standard. Powszechna standaryzacja sprawiła, że segment pamięci był zbyt nudny, aby go opisać. Producenci przestali wymyślać nowe, unikalne produkty. Wszystkie prace sprowadzają się do zwiększenia częstotliwości roboczej i zainstalowania wyrafinowanego układu chłodzenia.

Image
Image

Stagnacja technologiczna i nieśmiałe kroki ewolucyjne będą trwały do momentu, gdy producenci osiągną granicę możliwości krzemu (to z niego powstają układy scalone). W końcu częstotliwości pracy nie można zwiększać w nieskończoność.

Jest tu jednak jeden haczyk. Wydajność istniejących chipów DDR2 jest wystarczająca dla większości aplikacji komputerowych (złożone programy naukowe się nie liczą). Zainstalowanie modułów DDR3 pracujących z częstotliwością 1066 MHz i wyższą nie prowadzi do namacalnego wzrostu szybkości.

Star Trek to the Future

Główną wadą pamięci i wszystkich innych komponentów opartych na lampach próżniowych było wydzielanie ciepła. Rury musiały być chłodzone grzejnikami, powietrzem, a nawet wodą. Ponadto ciągłe podgrzewanie znacznie skróciło czas pracy - rury degradowały się w najbardziej naturalny sposób. Pod koniec okresu użytkowania musiały być stale dostrajane i ostatecznie zmieniane. Czy możesz sobie wyobrazić, ile wysiłku i pieniędzy kosztuje obsługa systemów komputerowych ?!

Dziwna tekstura na zdjęciu - jest to pamięć magnetyczna. Oto wizualna struktura jednej z tablic z drutami i pierścieniami ferrytowymi. Czy możesz sobie wyobrazić, ile czasu musiałeś poświęcić na znalezienie wśród nich niedziałającego modułu?
Dziwna tekstura na zdjęciu - jest to pamięć magnetyczna. Oto wizualna struktura jednej z tablic z drutami i pierścieniami ferrytowymi. Czy możesz sobie wyobrazić, ile czasu musiałeś poświęcić na znalezienie wśród nich niedziałającego modułu?

Dziwna tekstura na zdjęciu - jest to pamięć magnetyczna. Oto wizualna struktura jednej z tablic z drutami i pierścieniami ferrytowymi. Czy możesz sobie wyobrazić, ile czasu musiałeś poświęcić na znalezienie wśród nich niedziałającego modułu?

Potem przyszedł czas na tablice z blisko rozmieszczonymi pierścieniami ferrytowymi - wynalazek amerykańskich fizyków An Wanga i Wei-Dong Wu, zmodyfikowany przez studentów pod kierunkiem Jay'a Forrestera z Massachusetts Institute of Technology (MIT). Przewody łączące biegły przez środki pierścieni pod kątem 45 stopni (cztery na każdy pierścień we wczesnych systemach, dwa w bardziej zaawansowanych systemach). Pod napięciem przewody namagnesowały pierścienie ferrytowe, z których każdy mógł przechowywać jeden bit danych (namagnesowany - 1, rozmagnesowany - 0).

Jay Forrester opracował system, w którym sygnały sterujące dla wielu rdzeni były przesyłane zaledwie kilkoma przewodami. W 1951 roku ukazała się pamięć oparta na rdzeniach magnetycznych (bezpośredni analog współczesnej pamięci o dostępie swobodnym). Później zajął należne mu miejsce w wielu komputerach, w tym w pierwszych generacjach mainframe'ów DEC i IBM. W porównaniu do swoich poprzedników nowy typ pamięci nie miał praktycznie żadnych wad. Jego niezawodność była wystarczająca do działania w wojsku, a nawet statkach kosmicznych. Po katastrofie promu kosmicznego Challenger, która doprowadziła do śmierci siedmiu członków jego załogi, dane komputera pokładowego zapisane w pamięci za pomocą rdzeni magnetycznych pozostały nienaruszone i nienaruszone.

Technologia była stopniowo ulepszana. Koraliki ferrytowe zmniejszyły się, zwiększyła się prędkość pracy. Pierwsze próbki pracowały na częstotliwości około 1 MHz, czas dostępu wynosił 60 000 ns - w połowie lat 70. spadł do 600 ns.

Kochanie, zmniejszyłem pamięć

Następny krok naprzód w rozwoju pamięci komputerowej nastąpił wraz z wynalezieniem układów scalonych i tranzystorów. Branża obrała ścieżkę miniaturyzacji komponentów przy jednoczesnym zwiększeniu ich wydajności. We wczesnych latach siedemdziesiątych przemysł półprzewodników opanował produkcję wysoce zintegrowanych mikroukładów - dziesiątki tysięcy tranzystorów mieszczą się teraz na stosunkowo niewielkim obszarze. Pojawiły się układy pamięci o pojemności 1 Kbit (1024 bity), małe chipy do kalkulatorów, a nawet pierwsze mikroprocesory. Nastąpiła prawdziwa rewolucja.

Producenci pamięci w dzisiejszych czasach są bardziej zainteresowani wyglądem swoich produktów - wszystkie te same standardy i cechy są z góry określone w komisjach, takich jak JEDEC
Producenci pamięci w dzisiejszych czasach są bardziej zainteresowani wyglądem swoich produktów - wszystkie te same standardy i cechy są z góry określone w komisjach, takich jak JEDEC

Producenci pamięci w dzisiejszych czasach są bardziej zainteresowani wyglądem swoich produktów - wszystkie te same standardy i cechy są z góry określone w komisjach, takich jak JEDEC.

Dr Robert Dennard z IBM wniósł szczególny wkład w rozwój pamięci podstawowej. Opracował pierwszy chip oparty na tranzystorze i małym kondensatorze. W 1970 r. Rynek został pobudzony przez firmę Intel (która pojawiła się zaledwie dwa lata wcześniej) wraz z wprowadzeniem układu pamięci 1Kb i1103. Dwa lata później ten produkt stał się najlepiej sprzedającym się na świecie półprzewodnikowym układem pamięci.

W czasach pierwszego Apple Macintosha blok RAM zajmował olbrzymi pasek (na zdjęciu powyżej), podczas gdy wielkość nie przekraczała 64 KB
W czasach pierwszego Apple Macintosha blok RAM zajmował olbrzymi pasek (na zdjęciu powyżej), podczas gdy wielkość nie przekraczała 64 KB

W czasach pierwszego Apple Macintosha blok RAM zajmował olbrzymi pasek (na zdjęciu powyżej), podczas gdy wielkość nie przekraczała 64 KB.

Wysoce zintegrowane mikroukłady szybko zastąpiły starsze typy pamięci. Wraz z przejściem na kolejny poziom rozwoju, nieporęczne komputery mainframe ustąpiły miejsca komputerom stacjonarnym. Pamięć główna w tym czasie została ostatecznie oddzielona od drugiej, przybrała postać osobnych mikroczipów o pojemności 64, 128, 256, 512 Kbit, a nawet 1 Mbit.

Ostatecznie podstawowe układy pamięci zostały przeniesione z płyt głównych na oddzielne paski, co znacznie ułatwiło instalację i wymianę wadliwych komponentów. Częstotliwości zaczęły rosnąć, skróciły się czasy dostępu. Pierwsze synchroniczne dynamiczne układy SDRAM pojawiły się w 1993 roku, wprowadzone przez firmę Samsung. Nowe mikroukłady pracowały z częstotliwością 100 MHz, czas dostępu wynosił 10 ns.

Od tego momentu rozpoczął się zwycięski marsz SDRAM-u i do 2000 roku tego typu pamięć wyparła wszystkich konkurentów. Komisja JEDEC (Joint Electron Device Engineering Council) przejęła definicję standardów na rynku pamięci RAM. Jego uczestnicy stworzyli specyfikacje, które są jednolite dla wszystkich producentów, zatwierdzone częstotliwości i charakterystyki elektryczne.

Dalsza ewolucja nie jest tak interesująca. Jedyne znaczące wydarzenie miało miejsce w 2000 roku, kiedy na rynku pojawiła się standardowa pamięć RAM typu DDR SDRAM. Zapewniało dwukrotnie większą przepustowość niż konwencjonalne SDRAM-y i przygotowało grunt pod przyszły rozwój. Po DDR w 2004 roku pojawił się standard DDR2, który nadal jest najpopularniejszy.

Patentowy troll

We współczesnym świecie IT wyrażenie Patent Troll odnosi się do firm, które zarabiają na procesach sądowych. Motywują to faktem, że inne firmy naruszyły ich prawa autorskie. Deweloper pamięci Rambus podlega w całości tej definicji.

Od swojego powstania w 1990 roku, Rambus udziela licencji na swoją technologię stronom trzecim. Na przykład jego kontrolery i układy pamięci można znaleźć w Nintendo 64 i PlayStation 2. Najlepsza godzina Rambusa nadeszła w 1996 r., Kiedy Intel zawarł umowę z Intelem na używanie gniazd RDRAM i RIMM w swoich produktach.

Początkowo wszystko szło zgodnie z planem. Intel miał do dyspozycji zaawansowaną technologię, a Rambus był zadowolony ze współpracy z jednym z największych graczy w branży IT. Niestety wysoka cena modułów RDRAM i chipsetów Intela położyła kres popularności platformy. Wiodący producenci płyt głównych używali chipsetów i płyt VIA ze złączami do zwykłego SDRAM-u.

Rambus zdał sobie sprawę, że na tym etapie stracił rynek pamięci i rozpoczął długą grę z patentami. Pierwszą rzeczą, na którą się natknęła, był nowy projekt JEDEC - pamięć DDR SDRAM. Rambus zaatakował ją, oskarżając twórców o naruszenie praw autorskich. Firma przez pewien czas otrzymywała tantiemy gotówkowe, ale w kolejnej sprawie sądowej z udziałem Infineon, Micron i Hynix wszystko było na swoim miejscu. Sąd uznał, że rozwój technologiczny w dziedzinie DDR SDRAM i SDRAM nie należy do Rambus.

Od tego czasu łączna liczba roszczeń Rambusa przeciwko wiodącym producentom pamięci RAM przekroczyła wszelkie wyobrażalne limity. I wydaje się, że ten sposób życia całkiem dobrze pasuje do firmy.