Les premiers ordinateurs modernes sont généralement regroupés en quatre « générations ». Chaque génération est marquée par des améliorations de la technologie de base. Ces améliorations de la technologie ont été extraordinaires et chaque progrès a donné lieu à des ordinateurs de moindre coût, de plus grande vitesse, de plus grande capacité de mémoire et de plus petite taille.
Ce regroupement en générations n’est pas tranché ni sans débat. De nombreuses inventions et découvertes qui ont contribué à l’ère de l’informatique moderne ne rentrent pas dans ces catégories strictes. Le lecteur ne doit pas interpréter ces dates comme des frontières historiques strictes.
Première génération (1945-1959)
Le tube à vide a été inventé en 1906 par un ingénieur électricien nommé Lee De Forest (1873-1961). Au cours de la première moitié du vingtième siècle, c’est la technologie fondamentale qui a été utilisée pour construire des radios, des télévisions, des radars, des appareils à rayons X et une grande variété d’autres appareils électroniques. C’est également la principale technologie associée à la première génération de machines à calculer.
Le premier ordinateur électronique polyvalent opérationnel, nommé ENIAC (Electronic Numerical Integrator and Computer), a été construit en 1943 et utilisait 18 000 tubes à vide. Il a été construit avec des fonds gouvernementaux à la Moore School of Engineering de l’Université de Pennsylvanie, et ses principaux concepteurs étaient J. Presper Eckert, Jr. (1919-1995) et John W. Mauchly (1907-1980). Il mesurait près de 30,5 mètres (100 pieds) de long et comportait vingt registres à 10 chiffres pour les calculs temporaires. Il utilisait des cartes perforées pour les entrées et les sorties et était programmé à l’aide d’un circuit imprimé. L’ENIAC était capable de calculer au rythme de 1 900 additions par seconde. Il était utilisé principalement pour des calculs liés à la guerre, comme la construction de tables de tir balistique et des calculs pour aider à la construction de la bombe atomique.
Le Colossus était une autre machine qui a été construite pendant ces années pour aider à combattre la Seconde Guerre mondiale. Une machine britannique, elle était utilisée pour aider à décoder les messages secrets de l’ennemi. Utilisant 1 500 tubes à vide, la machine, comme l’ENIAC, était programmée à l’aide d’un câblage de carte enfichable.
Ces premières machines étaient généralement contrôlées par un câblage de carte enfichable ou par une série de directions codées sur une bande de papier. Certains calculs nécessitaient un câblage alors que d’autres calculs en nécessitaient un autre. Ainsi, si ces machines étaient clairement programmables, leurs programmes n’étaient pas stockés en interne. Cela allait changer avec le développement de l’ordinateur à programme stocké.
L’équipe travaillant sur l’ENIAC a probablement été la première à reconnaître l’importance du concept de programme stocké. Certaines des personnes impliquées dans les premiers développements de ce concept étaient J. Presper Eckert Jr. (1919-1955) et John W. Mauchly (1907-1980), ainsi que John von Neumann (1903-1957). Au cours de l’été 1946, un séminaire s’est tenu à l’école Moore et a porté une grande attention à la conception d’un ordinateur à programme enregistré. Une trentaine de scientifiques des deux côtés de l’océan Atlantique assistèrent à ces discussions et plusieurs machines à programme stocké furent bientôt construites.
L’un des participants au séminaire de l’école Moore, Maurice Wilkes (1913-), dirigea une équipe britannique qui construisit l’EDSAC (Electronic Delay Storage Automatic Calculator) à Cambridge en 1949. Du côté américain, Richard Snyder a dirigé l’équipe qui a réalisé l’EDVAC (Electronic Discrete Variable Automatic Computer) à la Moore School. Von Neumann a participé à la conception de la machine IAS (Institute for Advanced Study) qui a été construite à l’université de Princeton en 1952. Ces machines, tout en utilisant encore des tubes à vide, étaient toutes construites de manière à ce que leurs programmes puissent être stockés en interne.
Une autre machine à programme stocké importante de cette génération était l’UNIVAC (UNIVersal Automatic Computer). C’était la première machine réussie disponible dans le commerce. L’UNIVAC a été conçu par Eckert et Mauchly. Il utilisait plus de 5 000 tubes à vide et utilisait une bande magnétique pour le stockage de masse. La machine était utilisée pour des tâches telles que la comptabilité, le calcul des tables actuarielles et la prédiction des élections. Quarante-six de ces machines ont finalement été installées.
L’UNIVAC, qui a exécuté son premier programme en 1949, était capable d’exécuter dix fois plus d’additions par seconde que l’ENIAC. En dollars modernes, le prix de l’UNIVAC était de 4 996 000 dollars. C’est également à cette époque que le premier ordinateur IBM a été livré. Il s’appelait l’IBM 701 et dix-neuf de ces machines ont été vendues.
Deuxième génération (1960-1964)
Lorsque l’intérêt commercial pour la technologie informatique s’est intensifié à la fin des années 1950 et dans les années 1960, la deuxième génération de technologie informatique a été introduite, basée non pas sur des tubes à vide mais sur des transistors .
John Bardeen (1908-1991), William B. Shockley (1910-1989) et Walter H. Brattain (1902-1987) ont inventé le transistor aux Laboratoires Bell Telephone au milieu des années 1940. En 1948, il était évident pour beaucoup que le transistor allait probablement remplacer le tube à vide dans des appareils tels que les radios, les téléviseurs et les ordinateurs.
L’une des premières machines informatiques basées sur le transistor était le Transac S-2000 de la Philco Corporation en 1958. IBM a rapidement suivi avec l’IBM 7090 basé sur le transistor. Ces machines de deuxième génération étaient programmées dans des langages tels que le COBOL (Common Business Oriented Language) et le FORTRAN (Formula Translator) et étaient utilisées pour une grande variété de tâches commerciales et scientifiques. Les disques magnétiques et les bandes étaient souvent utilisés pour le stockage des données.
Troisième génération (1964-1970)
La troisième génération de la technologie informatique était basée sur la technologie des circuits intégrés et s’est étendue de 1964 à 1970 environ. Jack Kilby (1923-) de Texas Instruments et Robert Noyce (1927-1990) de Fairchild Semiconductor ont été les premiers à développer l’idée du circuit intégré en 1959. Le circuit intégré est un dispositif unique qui contient de nombreux transistors.
La machine la plus importante construite durant cette période est sans doute le System/360 d’IBM. Certains disent que cette machine a introduit à elle seule la troisième génération. Ce n’était pas simplement un nouvel ordinateur mais une nouvelle approche de la conception des ordinateurs. Elle a introduit une architecture informatique unique sur une gamme ou une famille de dispositifs. En d’autres termes, un programme conçu pour fonctionner sur une machine de la famille pouvait également fonctionner sur toutes les autres. IBM a dépensé environ 5 milliards de dollars pour développer le System/360.
Un des membres de la famille, l’IBM System/360 Model 50, était capable d’exécuter 500 000 additions par seconde pour un prix en dollars d’aujourd’hui de 4 140 257 $. Cet ordinateur était environ 263 fois plus rapide que l’ENIAC.
Pendant la troisième génération d’ordinateurs, le processeur central a été construit en utilisant de nombreux circuits intégrés. Ce n’est qu’à partir de la quatrième génération qu’un processeur entier serait placé sur une seule puce de silicium – plus petite qu’un timbre-poste.
Quatrième génération (1970- ?)
La quatrième génération de technologie informatique est basée sur le microprocesseur. Les microprocesseurs utilisent des techniques d’intégration à grande échelle (LSI) et d’intégration à très grande échelle (VLSI) pour regrouper des milliers ou des millions de transistors sur une seule puce.
L’Intel 4004 a été le premier processeur à être construit sur une seule puce de silicium. Il contenait 2 300 transistors. Construit en 1971, il a marqué le début d’une génération d’ordinateurs dont la lignée s’étendra jusqu’à nos jours.
En 1981, IBM a choisi la société Intel comme constructeur du microprocesseur (l’Intel 8086) pour sa nouvelle machine, l’IBM-PC. Ce nouvel ordinateur était capable d’exécuter 240 000 additions par seconde. Bien que beaucoup plus lent que les ordinateurs de la famille IBM 360, cet ordinateur ne coûtait que 4 000 $ en dollars d’aujourd’hui ! Ce rapport prix/performance a provoqué un boom sur le marché des ordinateurs personnels.
En 1996, le PC Pentium Pro de la société Intel était capable d’exécuter 400 000 000 d’additions par seconde. C’était environ 210 000 fois plus rapide que l’ENIAC – le cheval de bataille de la Seconde Guerre mondiale. La machine ne coûtait que 4 400 $ en dollars corrigés de l’inflation.
La technologie des microprocesseurs se retrouve aujourd’hui dans tous les ordinateurs modernes. Les puces elles-mêmes peuvent être fabriquées à peu de frais et en grande quantité. Les puces de processeur sont utilisées comme processeurs centraux et les puces de mémoire sont utilisées pour la mémoire vive dynamique (RAM) . Les deux types de puces utilisent les millions de transistors gravés sur leur surface en silicium. L’avenir pourrait apporter des puces qui combinent le processeur et la mémoire sur une seule puce de silicium.
À la fin des années 1980 et dans les années 1990, les microprocesseurs à cache, à pipelines et à superscalers sont devenus monnaie courante. Comme de nombreux transistors pouvaient être concentrés dans un espace très réduit, les scientifiques ont pu concevoir ces processeurs monopuces avec une mémoire embarquée (appelée cache ) et ont pu exploiter le parallélisme au niveau des instructions en utilisant des pipelines d’instructions ainsi que des conceptions permettant d’exécuter plus d’une instruction à la fois (appelées superscaler). Le PC Intel Pentium Pro était un microprocesseur à cache, superscaler et pipeline.
Aussi, durant cette période, une augmentation de l’utilisation des processeurs parallèles a eu lieu. Ces machines combinent de nombreux processeurs, reliés de diverses manières, pour calculer des résultats en parallèle. Elles ont été utilisées pour les calculs scientifiques et le sont maintenant aussi pour les bases de données et les serveurs de fichiers. Elles ne sont pas aussi omniprésentes que les uniprocesseurs car, après de nombreuses années de recherche, elles sont encore très difficiles à programmer et de nombreux problèmes peuvent ne pas se prêter à une solution parallèle.
Les premiers développements de l’informatique reposaient sur des avancées technologiques révolutionnaires. Les inventions et les nouvelles technologies en étaient la force motrice. Les développements plus récents sont probablement mieux considérés comme évolutifs plutôt que révolutionnaires.
Il a été suggéré que si l’industrie aérienne s’était améliorée au même rythme que l’industrie informatique, on pourrait voyager de New York à San Franscisco en 5 secondes pour 50 cents. À la fin des années 1990, les microprocesseurs amélioraient leurs performances au rythme de 55 % par an. Si cette tendance se poursuit, et il n’est pas absolument certain que ce soit le cas, en 2020, un seul microprocesseur pourrait posséder toute la puissance de calcul de tous les ordinateurs de la Silicon Valley à l’aube du XXIe siècle.
voir aussi Apple Computer, Inc.; Bell Labs ; Eckert, J. Presper, Jr. et Mauchly, John W. ; Circuits intégrés ; Intel Corporation ; Microsoft Corporation ; Xerox Corporation.
Michael J. McCarthy
Bibliographie
Hennessy, John, et David Patterson. Organisation et conception des ordinateurs. San Francisco : Morgan Kaufmann Publishers, 1998.
Rockett, Frank H. « The Transistor. » Scientific American 179, no. 3 (1948) : 52.
Williams, Michael R. Une histoire de la technologie informatique. Los Alamitos, CA : IEEE Computer Society Press, 1997.