Frühe moderne Computer werden üblicherweise in vier „Generationen“ eingeteilt. Jede Generation ist durch Verbesserungen in der Basistechnologie gekennzeichnet. Diese technologischen Verbesserungen waren außerordentlich, und jeder Fortschritt führte zu Computern mit geringeren Kosten, höherer Geschwindigkeit, größerer Speicherkapazität und geringerer Größe.
Diese Einteilung in Generationen ist weder eindeutig noch unumstritten. Viele der Erfindungen und Entdeckungen, die zum modernen Computerzeitalter beigetragen haben, lassen sich nicht in diese strengen Kategorien einordnen. Der Leser sollte diese Daten nicht als strenge historische Grenzen interpretieren.
Erste Generation (1945-1959)
Die Vakuumröhre wurde 1906 von einem Elektroingenieur namens Lee De Forest (1873-1961) erfunden. In der ersten Hälfte des 20. Jahrhunderts war sie die grundlegende Technologie, die zum Bau von Radios, Fernsehern, Radargeräten, Röntgengeräten und einer Vielzahl anderer elektronischer Geräte verwendet wurde. Sie ist auch die primäre Technologie, die mit der ersten Generation von Computern in Verbindung gebracht wird.
Der erste betriebsbereite elektronische Universalcomputer, der ENIAC (Electronic Numerical Integrator and Computer), wurde 1943 gebaut und verwendete 18.000 Vakuumröhren. Er wurde mit staatlicher Unterstützung an der Moore School of Engineering der University of Pennsylvania gebaut, und seine Hauptentwickler waren J. Presper Eckert, Jr. (1919-1995) und John W. Mauchly (1907-1980). Er war fast 30,5 Meter lang und verfügte über zwanzig 10-stellige Register für temporäre Berechnungen. Er benutzte Lochkarten für die Ein- und Ausgabe und wurde mit Steckbrettverdrahtung programmiert. Der ENIAC konnte mit einer Geschwindigkeit von 1.900 Additionen pro Sekunde rechnen. Er wurde vor allem für kriegsbezogene Berechnungen wie die Erstellung von ballistischen Schusstabellen und Berechnungen zur Unterstützung des Baus der Atombombe verwendet.
Der Colossus war eine weitere Maschine, die in diesen Jahren gebaut wurde, um den Zweiten Weltkrieg zu unterstützen. Diese britische Maschine wurde zur Entschlüsselung geheimer feindlicher Nachrichten eingesetzt. Die Maschine verwendete 1.500 Vakuumröhren und wurde wie der ENIAC mit Hilfe von Steckverbindungen programmiert.
Diese frühen Maschinen wurden in der Regel durch Steckverbindungen oder durch eine Reihe von auf Papierstreifen kodierten Anweisungen gesteuert. Bestimmte Berechnungen erforderten eine Verdrahtung, während andere Berechnungen eine andere erforderten. Obwohl diese Maschinen also eindeutig programmierbar waren, wurden ihre Programme nicht intern gespeichert. Dies änderte sich mit der Entwicklung des speicherprogrammierbaren Computers.
Das Team, das am ENIAC arbeitete, war wahrscheinlich das erste, das die Bedeutung des Konzepts des gespeicherten Programms erkannte. Einige der Personen, die an den frühen Entwicklungen dieses Konzepts beteiligt waren, waren J. Presper Eckert Jr. (1919-1955) und John W. Mauchly (1907-1980) sowie John von Neumann (1903-1957). Im Sommer 1946 fand an der Moore School ein Seminar statt, das sich mit der Entwicklung eines Computers mit gespeicherten Programmen befasste. Etwa dreißig Wissenschaftler von beiden Seiten des Atlantiks nahmen an diesen Diskussionen teil, und bald wurden mehrere speicherprogrammierte Maschinen gebaut.
Einer der Teilnehmer am Seminar der Moore School, Maurice Wilkes (1913-), leitete ein britisches Team, das 1949 in Cambridge den EDSAC (Electronic Delay Storage Automatic Calculator) baute. Auf amerikanischer Seite leitete Richard Snyder das Team, das an der Moore School den EDVAC (Electronic Discrete Variable Automatic Computer) fertigstellte. Von Neumann half bei der Entwicklung der IAS-Maschine (Institute for Advanced Study), die 1952 an der Princeton University gebaut wurde. Diese Maschinen verwendeten zwar immer noch Vakuumröhren, waren aber alle so gebaut, dass ihre Programme intern gespeichert werden konnten.
Eine weitere wichtige Maschine dieser Generation mit gespeicherten Programmen war der UNIVAC (UNIVersal Automatic Computer). Er war die erste erfolgreiche, kommerziell erhältliche Maschine. Der UNIVAC wurde von Eckert und Mauchly entworfen. Er verwendete mehr als 5.000 Vakuumröhren und nutzte Magnetbänder zur Massenspeicherung. Die Maschine wurde für Aufgaben wie Buchhaltung, versicherungsmathematische Tabellenberechnungen und Wahlvorhersagen eingesetzt. Sechsundvierzig dieser Maschinen wurden schließlich installiert.
Der UNIVAC, der 1949 sein erstes Programm ausführte, konnte zehnmal so viele Additionen pro Sekunde ausführen wie der ENIAC. In modernen Dollars ausgedrückt, kostete der UNIVAC 4.996.000 Dollar. In diese Zeit fiel auch die Auslieferung des ersten IBM-Computers. Er hieß IBM 701 und wurde in neunzehn Exemplaren verkauft.
Zweite Generation (1960-1964)
Als das kommerzielle Interesse an der Computertechnologie in den späten 1950er und 1960er Jahren zunahm, wurde die zweite Generation der Computertechnologie eingeführt, die nicht auf Vakuumröhren, sondern auf Transistoren basierte.
John Bardeen (1908-1991), William B. Shockley (1910-1989) und Walter H. Brattain (1902-1987) erfanden den Transistor in den Bell Telephone Laboratories Mitte der 1940er Jahre. Bereits 1948 war vielen klar, dass der Transistor die Vakuumröhre in Geräten wie Radios, Fernsehern und Computern ersetzen würde.
Einer der ersten Computer, der auf dem Transistor basierte, war der Transac S-2000 der Philco Corporation im Jahr 1958. IBM folgte bald darauf mit der transistorbasierten IBM 7090. Diese Maschinen der zweiten Generation waren in Sprachen wie COBOL (Common Business Oriented Language) und FORTRAN (Formula Translator) programmiert und wurden für eine Vielzahl von geschäftlichen und wissenschaftlichen Aufgaben eingesetzt. Zur Datenspeicherung wurden häufig Magnetplatten und -bänder verwendet.
Dritte Generation (1964-1970)
Die dritte Generation der Computertechnologie basierte auf der Technologie der integrierten Schaltkreise und erstreckte sich von etwa 1964 bis 1970. Jack Kilby (1923-) von Texas Instruments und Robert Noyce (1927-1990) von Fairchild Semiconductor waren die ersten, die 1959 die Idee der integrierten Schaltung entwickelten. Der integrierte Schaltkreis ist ein einzelnes Gerät, das viele Transistoren enthält.
Die wohl wichtigste Maschine, die in dieser Zeit gebaut wurde, war das IBM System/360. Manche sagen, dass diese Maschine im Alleingang die dritte Generation einführte. Es handelte sich nicht einfach um einen neuen Computer, sondern um einen neuen Ansatz in der Computerentwicklung. Es wurde eine einzige Computerarchitektur für eine Reihe oder Familie von Geräten eingeführt. Mit anderen Worten: Ein Programm, das für eine Maschine der Familie entwickelt wurde, konnte auch auf allen anderen Geräten laufen. IBM gab etwa 5 Milliarden Dollar für die Entwicklung des System/360 aus.
Ein Mitglied der Familie, das IBM System/360 Modell 50, konnte 500.000 Additionen pro Sekunde ausführen und kostete in heutigen Dollar 4.140.257 Dollar. Dieser Computer war etwa 263-mal so schnell wie der ENIAC.
In der dritten Generation von Computern wurde der Zentralprozessor mit Hilfe vieler integrierter Schaltungen aufgebaut. Erst in der vierten Generation wurde ein ganzer Prozessor auf einem einzigen Siliziumchip untergebracht, der kleiner als eine Briefmarke war.
Vierte Generation (1970-?)
Die vierte Generation der Computertechnologie basiert auf dem Mikroprozessor. Mikroprozessoren verwenden LSI- (Large Scale Integration) und VLSI-Techniken (Very Large Scale Integration), um Tausende oder Millionen von Transistoren auf einem einzigen Chip unterzubringen.
Der Intel 4004 war der erste Prozessor, der auf einem einzigen Siliziumchip gebaut wurde. Er enthielt 2.300 Transistoren. Er wurde 1971 gebaut und markierte den Beginn einer Computergeneration, die sich bis zum heutigen Tag fortsetzen sollte.
1981 wählte IBM die Intel Corporation als Hersteller des Mikroprozessors (Intel 8086) für seine neue Maschine, den IBM-PC, aus. Dieser neue Computer war in der Lage, 240.000 Additionen pro Sekunde auszuführen. Obwohl er viel langsamer war als die Computer der IBM 360-Familie, kostete dieser Computer in heutigen Dollar nur 4.000 Dollar! Dieses Preis-/Leistungsverhältnis löste einen Boom auf dem Markt für Personal Computer aus.
Im Jahr 1996 konnte der Pentium Pro PC der Intel Corporation 400.000.000 Additionen pro Sekunde ausführen. Das war etwa 210.000 Mal so schnell wie der ENIAC, das Arbeitspferd des Zweiten Weltkriegs. Die Maschine kostete inflationsbereinigt nur 4.400 Dollar.
Mikroprozessortechnologie findet sich heute in allen modernen Computern. Die Chips selbst können kostengünstig und in großen Mengen hergestellt werden. Prozessorchips werden als zentrale Prozessoren und Speicherchips als dynamischer Arbeitsspeicher (RAM) verwendet. Beide Arten von Chips nutzen die Millionen von Transistoren, die auf die Siliziumoberfläche geätzt sind. Die Zukunft könnte Chips bringen, die den Prozessor und den Speicher auf einem einzigen Siliziumchip vereinen.
In den späten 1980er und in den 1990er Jahren wurden Cache-, Pipeline- und Superscaler-Mikroprozessoren alltäglich. Da viele Transistoren auf sehr kleinem Raum konzentriert werden konnten, waren Wissenschaftler in der Lage, diese Ein-Chip-Prozessoren mit integriertem Speicher (Cache genannt) zu entwickeln und die Parallelität auf Befehlsebene auszunutzen, indem sie Befehlspipelines zusammen mit Designs verwendeten, die die gleichzeitige Ausführung von mehr als einem Befehl ermöglichten (Superscaler genannt). Der Intel Pentium Pro PC war ein Cache-, Superscaler- und Pipeline-Mikroprozessor.
In diesem Zeitraum kam es auch zu einer Zunahme der Verwendung von Parallelprozessoren. Diese Maschinen kombinieren viele Prozessoren, die auf verschiedene Weise miteinander verbunden sind, um Ergebnisse parallel zu berechnen. Sie wurden für wissenschaftliche Berechnungen eingesetzt und werden jetzt auch für Datenbank- und Dateiserver verwendet. Sie sind nicht so allgegenwärtig wie Uniprozessoren, da sie nach vielen Jahren der Forschung immer noch sehr schwer zu programmieren sind und sich viele Probleme nicht für eine parallele Lösung eignen.
Die frühen Entwicklungen in der Computertechnik basierten auf revolutionären Fortschritten in der Technologie. Erfindungen und neue Technologien waren die treibende Kraft. Die neueren Entwicklungen sind wahrscheinlich eher als evolutionär denn als revolutionär zu betrachten.
Es wurde behauptet, dass man für 50 Cent in 5 Sekunden von New York nach San Francisco reisen könnte, wenn sich die Luftfahrtindustrie im gleichen Tempo verbessert hätte wie die Computerindustrie. In den späten 1990er Jahren verbesserte sich die Leistung von Mikroprozessoren um 55 % pro Jahr. Wenn sich dieser Trend fortsetzt, was nicht absolut sicher ist, könnte im Jahr 2020 ein einziger Mikroprozessor die gesamte Rechenleistung aller Computer im Silicon Valley zu Beginn des einundzwanzigsten Jahrhunderts besitzen.
siehe auch Apple Computer, Inc.Bell Labs; Eckert, J. Presper, Jr. und Mauchly, John W.; Integrierte Schaltungen; Intel Corporation; Microsoft Corporation; Xerox Corporation.
Michael J. McCarthy
Bibliographie
Hennessy, John, und David Patterson. Computer Organization and Design. San Francisco: Morgan Kaufmann Publishers, 1998.
Rockett, Frank H. „The Transistor.“ Scientific American 179, no. 3 (1948): 52.
Williams, Michael R. A History of Computing Technology. Los Alamitos, CA: IEEE Computer Society Press, 1997.