Wczesne nowoczesne komputery są typowo pogrupowane w cztery „generacje”. Każda generacja jest naznaczona przez ulepszenia w podstawowej technologii. Te ulepszenia w technologii były nadzwyczajne, a każdy postęp spowodował powstanie komputerów o niższych kosztach, większej szybkości, większej pojemności pamięci i mniejszych rozmiarach.

Ten podział na generacje nie jest jednoznaczny ani nie jest bezdyskusyjny. Wiele z wynalazków i odkryć, które przyczyniły się do powstania nowoczesnej ery komputerów, nie pasuje do tych ścisłych kategorii. Czytelnik nie powinien interpretować tych dat jako ścisłych granic historycznych.

Pierwsza generacja (1945-1959)

Lampa próżniowa została wynaleziona w 1906 roku przez inżyniera elektryka o nazwisku Lee De Forest (1873-1961). W pierwszej połowie dwudziestego wieku, była to podstawowa technologia, która była używana do konstruowania radioodbiorników, telewizorów, radarów, aparatów rentgenowskich i szerokiej gamy innych urządzeń elektronicznych. Jest to również podstawowa technologia związana z pierwszą generacją maszyn obliczeniowych.

Pierwszy działający elektroniczny komputer ogólnego przeznaczenia, nazwany ENIAC (Electronic Numerical Integrator and Computer), został zbudowany w 1943 roku i wykorzystywał 18 000 lamp próżniowych. Został zbudowany z funduszy rządowych na Uniwersytecie Pensylwanii w Moore School of Engineering, a jego głównymi projektantami byli J. Presper Eckert, Jr. (1919-1995) i John W. Mauchly (1907-1980). Miał prawie 30,5 metra długości i posiadał dwadzieścia 10-cyfrowych rejestrów do tymczasowych obliczeń. Używał kart perforowanych do wprowadzania i wyprowadzania danych i był programowany za pomocą okablowania. ENIAC był w stanie wykonywać obliczenia w tempie 1900 dodawań na sekundę. Był używany głównie do obliczeń związanych z wojną, takich jak budowa balistycznych tabel ostrzału i obliczeń mających pomóc w budowie bomby atomowej.

Kolos był kolejną maszyną, która została zbudowana w tych latach, aby pomóc w walce z II wojną światową. Brytyjska maszyna, została użyta do pomocy w rozszyfrowaniu tajnych wiadomości wroga. Wykorzystując 1500 lamp próżniowych, maszyna ta, podobnie jak ENIAC, była programowana za pomocą okablowania na płytce drukowanej.

Te wczesne maszyny były zazwyczaj kontrolowane przez okablowanie na płytce drukowanej lub przez serię wskazówek zakodowanych na taśmie papierowej. Pewne obliczenia wymagałyby jednego okablowania, podczas gdy inne wymagałyby innego. Tak więc, podczas gdy te maszyny były wyraźnie programowalne, ich programy nie były przechowywane wewnętrznie. Zmieniło się to wraz z rozwojem komputera z zapisanymi programami.

Zespół pracujący nad ENIAC był prawdopodobnie pierwszym, który dostrzegł znaczenie koncepcji zapisanych programów. Jednymi z osób zaangażowanych we wczesny rozwój tej koncepcji byli J. Presper Eckert Jr (1919-1955) i John W. Mauchly (1907-1980) oraz John von Neumann (1903-1957). Latem 1946 roku w Szkole Moore’a odbyło się seminarium, które skupiło wielką uwagę na konstrukcji komputera z programem zapisanym. Około trzydziestu naukowców z obu stron Oceanu Atlantyckiego uczestniczyło w tych dyskusjach i wkrótce zbudowano kilka maszyn z zapisanymi programami.

Jeden z uczestników seminarium w Szkole Moore’a, Maurice Wilkes (1913-), kierował brytyjskim zespołem, który zbudował EDSAC (Electronic Delay Storage Automatic Calculator) w Cambridge w 1949 roku. Po stronie amerykańskiej, Richard Snyder kierował zespołem, który ukończył EDVAC (Electronic Discrete Variable Automatic Computer) w Szkole Moore’a. Von Neumann pomógł zaprojektować maszynę IAS (Institute for Advanced Study), która została zbudowana na Uniwersytecie Princeton w 1952 roku. Maszyny te, choć nadal korzystały z lamp próżniowych, były zbudowane tak, że ich programy mogły być przechowywane wewnętrznie.

Inną ważną maszyną tej generacji z zapisanymi programami był UNIVAC (UNIVersal Automatic Computer). Była to pierwsza udana maszyna dostępna komercyjnie. UNIVAC został zaprojektowany przez Eckerta i Mauchly’ego. Wykorzystywał ponad 5000 lamp próżniowych, a do przechowywania danych masowych stosował taśmę magnetyczną. Maszyna była używana do takich zadań jak księgowość, obliczanie tabel aktuarialnych i przewidywanie wyborów. Ostatecznie zainstalowano czterdzieści sześć takich maszyn.

UNIVAC, który wykonał swój pierwszy program w 1949 roku, był w stanie wykonać dziesięć razy więcej dodawań na sekundę niż ENIAC. We współczesnych dolarach UNIVAC został wyceniony na 4 996 000 dolarów. Również w tym okresie został wysłany pierwszy komputer IBM. Nazywano go IBM 701 i sprzedano dziewiętnaście takich maszyn.

Druga Generacja (1960-1964)

Jak komercyjne zainteresowanie technologią komputerową nasiliło się w późnych latach pięćdziesiątych i sześćdziesiątych, wprowadzono drugą generację technologii komputerowej opartą nie na lampach próżniowych, lecz na tranzystorach.

John Bardeen (1908-1991), William B. Shockley (1910-1989) i Walter H. Brattain (1902-1987) wynaleźli tranzystor w Bell Telephone Laboratories w połowie lat 40-tych. Do 1948 roku dla wielu było oczywiste, że tranzystor prawdopodobnie zastąpi lampę próżniową w urządzeniach takich jak radia, telewizory i komputery.

Jedną z pierwszych maszyn obliczeniowych opartych na tranzystorze był Transac S-2000 firmy Philco Corporation w 1958 roku. IBM wkrótce podążył za nim z opartym na tranzystorach IBM 7090. Te maszyny drugiej generacji były zaprogramowane w językach takich jak COBOL (Common Business Oriented Language) i FORTRAN (Formula Translator) i były używane do szerokiej gamy zadań biznesowych i naukowych. Dyski magnetyczne i taśmy były często używane do przechowywania danych.

Trzecia generacja (1964-1970)

Trzecia generacja technologii komputerowej była oparta na technologii układów scalonych i trwała od około 1964 do 1970 roku. Jack Kilby (1923-) z Texas Instruments i Robert Noyce (1927-1990) z Fairchild Semiconductor byli pierwszymi, którzy rozwinęli ideę układu scalonego w 1959 roku. Układ scalony to pojedyncze urządzenie, które zawiera wiele tranzystorów.

Prawdopodobnie najważniejszą maszyną zbudowaną w tym okresie był IBM System/360. Niektórzy twierdzą, że maszyna ta w pojedynkę wprowadziła trzecią generację. Nie był to po prostu nowy komputer, ale nowe podejście do projektowania komputerów. Wprowadziła pojedynczą architekturę komputerową dla całej gamy lub rodziny urządzeń. Innymi słowy, program zaprojektowany do uruchamiania na jednej maszynie z rodziny mógł być również uruchamiany na wszystkich pozostałych. IBM wydał około 5 miliardów dolarów na opracowanie Systemu/360.

Jeden członek rodziny, IBM System/360 Model 50, był w stanie wykonać 500 000 dodawań na sekundę za cenę, w dzisiejszych dolarach, 4 140 257 dolarów. Komputer ten był około 263 razy szybszy niż ENIAC.

Podczas trzeciej generacji komputerów procesor centralny został skonstruowany przy użyciu wielu układów scalonych. Dopiero w czwartej generacji cały procesor został umieszczony na pojedynczym chipie krzemowym – mniejszym od znaczka pocztowego.

Czwarta generacja (1970-?)

Czwarta generacja technologii komputerowej jest oparta na mikroprocesorze. Mikroprocesory wykorzystują techniki LSI (Large Scale Integration) i VLSI (Very Large Scale Integration) do umieszczenia tysięcy lub milionów tranzystorów na pojedynczym układzie scalonym.

Intel 4004 był pierwszym procesorem zbudowanym na pojedynczym układzie krzemowym. Zawierał on 2300 tranzystorów. Zbudowany w 1971 roku, zapoczątkował generację komputerów, których rodowód będzie się ciągnął aż do dnia dzisiejszego.

W 1981 roku IBM wybrał Intel Corporation jako konstruktora mikroprocesora (Intel 8086) dla swojej nowej maszyny, IBM-PC. Ten nowy komputer był w stanie wykonać 240,000 dodawań na sekundę. Chociaż znacznie wolniejszy od komputerów z rodziny IBM 360, komputer ten kosztował tylko 4 000 dolarów w dzisiejszych dolarach! Ten stosunek ceny do wydajności spowodował boom na rynku komputerów osobistych.

W 1996 r. komputer Pentium Pro firmy Intel Corporation był w stanie wykonać 400 000 000 dodawań na sekundę. Było to około 210 000 razy szybciej niż ENIAC – koń roboczy z czasów II wojny światowej. Maszyna kosztowała tylko $4,400 w dolarach skorygowanych o inflację.

Technologia mikroprocesorowa jest obecnie spotykana we wszystkich nowoczesnych komputerach. Same chipy mogą być produkowane niedrogo i w dużych ilościach. Chipy procesorowe są używane jako procesory centralne, a chipy pamięciowe są używane do dynamicznej pamięci dostępu losowego (RAM). Oba typy chipów wykorzystują miliony tranzystorów wytrawionych na ich krzemowej powierzchni. Przyszłość może przynieść chipy, które łączą procesor i pamięć na pojedynczej matrycy krzemowej.

Pod koniec lat 80-tych i w latach 90-tych mikroprocesory buforowane, potokowe i superskalarne stały się powszechne. Ponieważ wiele tranzystorów może być skoncentrowanych w bardzo małej przestrzeni, naukowcy byli w stanie zaprojektować te jednoukładowe procesory z wbudowaną pamięcią (zwaną pamięcią podręczną) i byli w stanie wykorzystać równoległość na poziomie instrukcji poprzez użycie potoków instrukcji wraz z konstrukcjami, które pozwoliły na wykonanie więcej niż jednej instrukcji w tym samym czasie (zwanej superskalerem). Intel Pentium Pro PC był mikroprocesorem z buforowaniem, superskalerem, potokowym.

W tym okresie nastąpił również wzrost wykorzystania procesorów równoległych. Maszyny te łączą wiele procesorów, połączonych na różne sposoby, w celu równoległego obliczania wyników. Były one używane do obliczeń naukowych, a obecnie są wykorzystywane również w serwerach baz danych i plików. Nie są tak wszechobecne jak uniprocesory, ponieważ po wielu latach badań nadal są bardzo trudne do zaprogramowania, a wiele problemów może nie nadawać się do rozwiązania równoległego.

Wczesny rozwój technologii komputerowej opierał się na rewolucyjnych postępach w technologii. Siłą napędową były wynalazki i nowe technologie. Bardziej niedawny rozwój jest prawdopodobnie najlepiej postrzegany jako ewolucyjny, a nie rewolucyjny.

Sugerowano, że gdyby przemysł lotniczy poprawił się w tym samym tempie co przemysł komputerowy, można by podróżować z Nowego Jorku do San Franscisco w 5 sekund za 50 centów. W późnych latach 90-tych mikroprocesory poprawiały swoją wydajność w tempie 55 procent rocznie. Jeśli ta tendencja się utrzyma, a nie jest absolutnie pewne, że tak się stanie, do roku 2020 pojedynczy mikroprocesor może posiadać całą moc obliczeniową wszystkich komputerów w Dolinie Krzemowej na początku dwudziestego pierwszego wieku.

patrz też Apple Computer, Inc.; Bell Labs; Eckert, J. Presper, Jr. i Mauchly, John W.; Integrated Circuits; Intel Corporation; Microsoft Corporation; Xerox Corporation.

Michael J. McCarthy

Bibliografia

Hennessy, John, and David Patterson. Organizacja i projektowanie komputerów. San Francisco: Morgan Kaufmann Publishers, 1998.

Rockett, Frank H. „The Transistor.” Scientific American 179, no. 3 (1948): 52.

Williams, Michael R. A History of Computing Technology. Los Alamitos, CA: IEEE Computer Society Press, 1997.

Williams, Michael R. A History of Computing Technology.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.