Cours 3
enseignant Marcin Sobieszczanski
2008/2009
Les étapes de l'évolution des ordinateurs [selon Encyclopædia Universalis] :
La première génération (1950-1959)
Les premières machines construites industriellement au tout début des années 1950 constituent bien évidemment la première génération d'ordinateurs. Ceux-ci se caractérisent par une technologie à base de tubes à vide miniaturisés, plus fiables et consommant moins d'énergie que ceux qui étaient utilisés dans les premiers prototypes. Une fois résolus les problèmes de fiabilité des constituants de l'unité centrale, on chercha rapidement à disposer de mémoires centrales fiables, rapides et de capacités suffisantes. Les mémoires des premiers ordinateurs furent des lignes à retard offrant, à volume égal, une capacité de stockage très supérieure aux tubes à vide. Mais, en quelques années, les mémoires à tores de ferrite supplantèrent les autres technologies de mémoires centrales.
Tubes à vide miniaturisés
Mémoire à tores magnétiques
Dès le milieu des années 1950, les mémoires à tores de ferrite ont connu un grand succès. La technique a été inventé par J. Forrester au M.I.T. (Massachusetts Institude of Technology) dans le cadre du programme SAGE au début des années 1950. Elles offrent un moyen de réaliser des mémoires centrales rapides et sûres.On utilise la propriété des matériaux ferromagnétiques de conserver une certaine aimantation (aimantation rémanente) une fois supprimée l’action d’aimantation.
Les tores magnétiques en oxyde de fer peuvent être magnétisés très rapidement (en quelques millionièmes de seconde) et restent magnétisés indéfiniment. Ceci permet de fabriquer des mémoires statiques. Il n’est pas nécessaire de régénérer ce type de mémoire et la puissance électrique nécessaire pour sa commande est très faible.
Un plan de tores
Une mémoire à tores peut comporter plus d’un million de tores. Chaque tore représente un bit d’information. Les mémoires à tores ont permis d’augmenter la vitesse et la complexité des ordinateurs.
Si le principe d’une mémoire à tores est simple, la réalisation en est complexe, notamment à cause des phénomènes parasites. Il faut également une très grande précision dans la fabrication des petits anneaux pour que leurs caractéristiques soient identiques et le déchet peut être très important.
Parallèlement aux travaux visant à l'amélioration des mémoires centrales, des recherches furent entreprises sur les organes d'entrée-sortie, notamment pour mettre au point des supports d'information moins coûteux que les mémoires à tores. Ces mémoires secondaires (on parle également de mémoires externes, de mémoires auxiliaires, de mémoires de masse) devaient permettre le stockage d'une quantité d'informations toujours plus grande, pour des traitements de plus en plus complexes. C'est ainsi qu'apparurent tambours magnétiques, bandes magnétiques, disques... Ces supports d'information, encore utilisés (sauf les tambours magnétiques), ont été constamment améliorés depuis leur création.
Les tambours magnétiques
Inventé dès 1932 par l'autrichien Gustav Tauschek, le tambour magnétique a été la première mémoire cinétique magnétique utilisée dans les ordinateurs au début des années 1950 (il remplace les tubes de Williams sur le Manchester Mark 1).
C'est en fait la première mémoire fiable de capacité relativement importante (de 100Ko à qq.Mo) et de temps d'accès court (pour l'époque). Il a permis aux ordinateurs de faire de gros progrès, servant à la fois de mémoire principale et de mémoire de masse. On y stockait aussi bien les programmes que les données; il servait en particulier pour la mémoire virtuelle.
Le principe en est simple : un cylindre est revêtu d'un revêtement magnétique. Une série de têtes est disposée suivant une génératrice, chaque tête écrivant sur une piste. C'est onéreux car il y a autant de têtes que de pistes, mais c'est rapide car les têtes n'ont pas à être déplacées et le temps d'accès moyen est 1/2 tour. Les programmeurs faisaient des miracles pour disposer les instructions sur les pistes de façon à ce que lorsqu'une instruction se terminait, la suivante arrivât sous la tête.
À partir des années 1960 les tambours ont été détrônés par les tores (environ 10000 fois plus rapides) dans leur rôle de mémoire principale et par les disques un peu plus lents (car il faut positionner la tête sur la bonne piste) mais beaucoup moins chers et de plus grande capacité, dans leur rôle de mémoire de masse.
La bande magnétique
La bande magnétique désigne un support capable d'enregistrer des informations numériques ou analogiques par le biais d'appareils électroniques comme le magnétoscope.
Inventée en 1928 par Fritz Pfleumer
Pendant cette décennie, les logiciels évoluèrent de façon significative : on améliora les langages de programmation disponibles, ainsi que les techniques de gestion des différents types de mémoires utilisées dans un ordinateur.
La deuxième génération (1959-1963)
De nos jours, il est admis que l'apparition de la deuxième génération coïncide avec l'utilisation des transistors dans les unités centrales. L'utilisation de cette technologie entraîna une amélioration des vitesses de traitement et des débits des ordinateurs. Une conséquence importante en fut l'aggravation des écarts de vitesses entre le traitement proprement dit et les entrées-sorties. Depuis cette époque, cet écart n'a cessé de croître, et il demeure un facteur de limitation des performances des machines. L'utilisation des transistors provoqua également la miniaturisation des unités centrales et une diminution importante de l'énergie consommée par les machines. La deuxième génération peut également être considérée comme l'époque de progrès très importants dans le domaine des logiciels, puisque la plupart des concepts développés alors restent valables sur les ordinateurs actuels.
Transistors
Suite aux travaux sur les semi-conducteurs, le transistor a été inventé le 23 décembre 1947 par les Américains John Bardeen, William Shockley et Walter Brattain, chercheurs de la compagnie Bell Téléphone1. Ces chercheurs ont reçu pour cette invention le prix Nobel de physique en 1956.
Le transistor est considéré comme un énorme progrès face au tube électronique : beaucoup plus petit, plus léger et plus robuste, fonctionnant avec des tensions faibles, autorisant une alimentation par piles, et il fonctionne presque quasi instantanément une fois mis sous tension, contrairement aux tubes électroniques qui demandaient une dizaine de secondes de chauffage, généraient une consommation importante et nécessitaient une source de tension élevée (plusieurs centaines de volts).
L'industrialisation vient dès le début des années 1950, sous l'impulsion de Norman Krim, vice-président de Raytheon. Il est rapidement assemblé, avec d'autres composants, au sein de circuits intégrés, ce qui lui permit de conquérir encore plus de terrain sur les autres formes d'électronique active.
La troisième génération
Les progrès constatés dans la troisième génération ont été rendus possibles par un accroissement de la puissance de traitement et une augmentation spectaculaire des capacités des mémoires (centrales et secondaires). Ces progrès dépendent eux-mêmes de ceux qui sont réalisés dans l'intégration des composants électroniques. L'ensemble des composants électroniques implantés sur un même morceau de silicium est appelé circuit intégré. La densité d'intégration correspond au rapport entre le nombre de composants et la surface de silicium occupée, pour une technologie de fabrication donnée.
Circuit intégré
http://www.ina.fr/fresques/reperes-mediterraneens/fiche-media/Repmed00132/des-monstres-a-apprivoiser-les-ordinateurs.html
L'utilisation des techniques de microprogrammation (cf. infra , Principes de fonctionnement d'un processeur classique ) dans le matériel des ordinateurs de troisième génération a facilité l'implantation d'un même jeu d'instructions sur des machines de puissances différentes, pour constituer des gammes de machines compatibles entre elles d'un point de vue logiciel.
Les systèmes d'exploitation ont continué à se compliquer et les applications à proliférer. Désormais, les utilisateurs non informaticiens peuvent accéder à des données et utiliser des services par l'intermédiaire d'applications spécifiques (par exemple, pour réserver une place d'avion, consulter la position du compte bancaire d'un client, etc.).
En fait, la troisième génération se caractérise plus par une évolution continue, une amélioration incessante des matériels et des logiciels, que par une remise en cause des architectures des générations précédentes. À mesure que l'utilisation des ordinateurs et des services qu'ils peuvent offrir est de plus en plus intensive, les systèmes d'exploitation et les applications sont devenus de plus en plus complexes et volumineux.
Les systèmes des années 1970 ont permis aux utilisateurs d'accéder aux machines à distance : par l'intermédiaire de terminaux reliés à ces machines par des liaisons téléphoniques, l'utilisateur éloigné pouvait soumettre des lots de travaux ou encore utiliser le temps partagé. Les systèmes d'exploitation présentaient de profondes différences d'un constructeur à l'autre, voire d'une machine à l'autre chez un même constructeur.
La quatrième génération ?
Vers la fin des années 1970, les coûts des logiciels occupent désormais une part prépondérante dans le prix de revient des systèmes informatiques, alors que jusqu'ici les matériels représentaient la majeure partie des investissements. Les utilisateurs ont de plus en plus le souci de protéger leurs investissements logiciels et redoutent les changements de machines entraînant une réécriture des programmes. La compatibilité des machines vis-à-vis des programmes existants devient un impératif majeur des utilisateurs et s'oppose aux changements radicaux de matériels, tels qu'on les avait connus aux débuts de l'informatique. Les constructeurs ont dû se plier à cette exigence.
Les progrès technologiques impressionnants, commencés dans les années 1970 (doublement tous les deux ans environ de la densité d'intégration), ont rendu possible la mise en œuvre de concepts architecturaux déjà connus mais qui n'avaient pu être implantés, à cause des difficultés techniques et du coût exorbitant de telles réalisations. L'accroissement de la densité d'intégration à partir des circuits MSI (Medium Scale Integration), puis LSI (Large Scale Integration) et enfin VLSI (Very Large Scale Integration) a conditionné le développement des architectures de machines scientifiques extrêmement puissantes (cf. infra , Les améliorations possibles de l'architecture de von Neumann ), l'émergence des premiers microprocesseurs (processeurs dont les organes furent intégrés dans un ou plusieurs circuits), ainsi que l'apparition de mémoires centrales de fortes capacités à faibles coûts. Parallèlement, les périphériques ont également bénéficié de ces progrès et se font de plus en plus rapides et de plus en plus compacts, tout en devenant moins onéreux. L'apparition des microprocesseurs et des mémoires à faibles coûts marque l'avènement des ordinateurs personnels , ou micro-ordinateurs , et des stations de travail , qui ont rendu l'informatique omniprésente dans tous les secteurs d'activité. Les micro-ordinateurs ont assez rapidement atteint la puissance des gros ordinateurs du début des années 1970, pour un encombrement très faible et un coût dérisoire, comparé au prix des machines de cette époque. Les stations de travail, à usage professionnel, sont des machines puissantes sous un faible volume, orientées vers les applications graphiques.
Microprocesseur
Un microprocesseur est un processeur dont les composants ont été suffisamment miniaturisés pour être regroupés dans un unique circuit intégré. Fonctionnellement, le processeur est la partie d’un ordinateur qui exécute les instructions et traite les données des programmes.
L'existence d'une quatrième génération peut donc être considérée comme problématique pour qualifier les ordinateurs à partir des années 1980, puisqu'il y a continuité dans les architectures de machines. Les améliorations auxquelles on assiste depuis lors sont essentiellement dues aux progrès continus réalisés dans l'intégration des composants. Toutefois, s'il subsiste toujours de profondes différences entre les divers systèmes d'exploitation, les tendances actuelles de l'informatique concourent à gommer les incompatibilités entre les différents systèmes.
IBM La Gaude 1966 : http://www.ina.fr/fresques/reperes-mediterraneens/fiche-media/Repmed00132/des-monstres-a-apprivoiser-les-ordinateurs.html
l'avenir de l'informatique d'après François ANCEAU :
L'informatique de demain : de Von Neumann aux superprocesseurs
Tableau comparatif
|
La technologie de base |
Tendances opératoires |
La mémoire centrale |
les organes d'entrée-sortie |
les logiciels |
La première génération (1950-1959) |
tubes à vide miniaturisés |
|
mémoires centrales fiables, rapides et de capacités suffisantes, lignes à retard ensuite les mémoires à tores de ferrite |
mémoires externes , de mémoires auxiliaires , de mémoires de masse : tambours magnétiques, bandes magnétiques, disques |
on améliora les langages de programmation disponibles, ainsi que les techniques de gestion des différents types de mémoires utilisées dans un ordinateur |
La deuxième génération (1959-1963) |
l'utilisation des transistors dans les unités centrales |
l'aggravation des écarts de vitesses entre le traitement proprement dit et les entrées-sorties, la miniaturisation des unités centrales et une diminution importante de l'énergie consommée par les machines |
|
|
la plupart des concepts développés alors restent valables sur les ordinateurs actuels |
La troisième génération (1963- |
L'ensemble des composants électroniques implantés sur un même morceau de silicium - circuit intégré |
augmentation spectaculaire des capacités des mémoires (centrales et secondaires), l'intégration des composants électroniques, La densité d'intégration correspond au rapport entre le nombre de composants et la surface de silicium occupée, pour une technologie de fabrication donnée. L'utilisation des techniques de microprogrammation (cf. infra , Principes de fonctionnement d'un processeur classique ) dans le matériel des ordinateurs de troisième génération a facilité l'implantation d'un même jeu d'instructions sur des machines de puissances différentes, pour constituer des gammes de machines compatibles entre elles d'un point de vue logiciel. |
|
|
|
La quatrième génération (70-80) |
l'émergence des premiers microprocesseurs (processeurs dont les organes furent intégrés dans un ou plusieurs circuits) |
l'avènement des ordinateurs personnels , ou micro-ordinateurs , et des stations de travail , qui ont rendu l'informatique omniprésente dans tous les secteurs d'activité |
|
|
|
perspectives |
|
|
|
|
|