Stéphane FOSSE

EPOCH


EPOCH © 2025 par - Ce livre est publié selon les termes de la licence CC BY-SA 4.0

Chapitre 3
1940

L’informatique dans la tourmente de la guerre

Quand la guerre éclate en 1939, personne n’imagine que ce conflit transformera radicalement notre rapport au calcul et à l’information. Hitler envahit la Pologne, le monde bascule, et dans l’ombre des états-majors, une bataille tout aussi décisive commence : celle de l’intelligence.

Le manoir de Bletchley Park, à quelques kilomètres de Londres, abrite un secret qui changera l’histoire. Alan Turing y conçoit des machines capables de décoder les messages chiffrés par Enigma, ce système réputé inviolable qu’utilisent les Allemands. La cryptanalyse, science confidentielle jusqu’alors, devient un enjeu vital. Les « bombes » électromécaniques, ces ancêtres primitifs des ordinateurs, tournent jour et nuit. Déchiffrer les communications ennemies sauve des milliers de vies et aurait raccourci la guerre de deux ans, selon certains historiens.

Pendant ce temps, l’armée américaine se heurte à ses calculs balistiques, trop complexes pour être résolus à la main, et qui ralentissent la production d’armement. À l’Université de Pennsylvanie, une équipe s’acharne sur un projet fou : l’ENIAC. Cette machine de 30 tonnes, avec ses 18 000 tubes à vide qui chauffent comme des braises, dévore 200 kilowatts d’électricité pour calculer des trajectoires d’obus en quelques secondes. Quand elle s’allume pour la première fois en 1946, la guerre est finie depuis des mois, mais l’ère du calcul électronique vient de commencer.

Les femmes jouent un rôle étrangement oublié dans cette histoire. Six mathématiciennes programment l’ENIAC en reconfigurant physiquement ses circuits. Elles inventent, sans le savoir, le métier de programmeuse. Elles sont Kay McNulty, Betty Snyder, Marlyn Wescoff, Ruth Lichterman, Betty Jean Jennings et Fran Bilas. Leurs noms méritent de figurer dans les livres d’histoire aux cotés des ingénieurs qui ont assemblé la machine.

L’après-guerre dessine un paysage neuf où les États-Unis, pratiquement intouchés par les combats, possèdent désormais 50% de la richesse mondiale. L’industrie américaine tourne à plein régime pour reconstruire l’Europe dévastée. Les machines à cartes perforées d’IBM équipent les administrations et les grandes entreprises, mais leurs limites apparaissent vite face à l’explosion des besoins de calcul.

Dans le monde scientifique, un jeune ingénieur des Bell Labs, Claude Shannon, publie « Une théorie mathématique de la communication », un article de 1948 qui passerait presque inaperçu. Il y démontre qu’on peut traiter n’importe quelle information comme une séquence de 0 et de 1. Cette idée, d’une simplicité trompeuse, allait bouleverser notre civilisation.

La guerre froide s’installe et pousse les deux superpuissances à investir dans la recherche. À Moscou, Sergueï Lebedev travaille secrètement sur le MESM, premier ordinateur soviétique. Les Américains, eux, multiplient les projets : Whirlwind au MIT, IAS à Princeton, Mark III à Harvard. John von Neumann théorise une architecture qui restera la norme pendant plus d’un demi-siècle. Les circuits mémoire s’améliorent, les tubes à vide cèdent la place aux transistors inventés en 1947.

Dans le monde innovant des télécommunications, AT&T étend son réseau de téléphone automatique. Les câbles sous-marins se multiplient. Dans les laboratoires, on expérimente la transmission numérique de données. Ces technologies finiront par converger avec l’informatique.

Les universités créent leurs premiers départements de « calcul automatique ». Un vocabulaire nouveau apparaît : programmation, algorithme, bit, octet. Des machines commerciales voient le jour. Ferranti sort son Mark I en Grande-Bretagne. Konrad Zuse, en Allemagne, crée la première entreprise d’informatique européenne. Remington Rand livre l’UNIVAC I au Bureau du recensement américain en 1951.

Les bibliothèques et centres de documentation, submergés par l’explosion de la littérature scientifique d’après-guerre, cherchent des solutions nouvelles. La classification décimale universelle montre ses limites. Des travaux théoriques sur les systèmes documentaires automatisés émergent. Vannevar Bush, dans son fameux article de 1945, imagine un bureau équipé d’un « Memex », machine capable de stocker et d’associer des documents par des liens, préfiguration troublante du Web que nous connaissons.

L’informatique n’existe pas encore en tant que discipline, on parle de cybernétique, terme proposé par Norbert Wiener en 1948 pour désigner la science du contrôle et de la communication. En France, IBM traduit « computer » par « ordinateur », sur suggestion du professeur Jacques Perret. Le terme s’impose vite dans la francophonie.

Qui aurait pu prédire, en 1940, que dix ans plus tard, des machines électroniques traiteraient l’information à une vitesse vertigineuse ? Ces premières réalisations, malgré leur taille monumentale et leur coût exorbitant, transformeront tous les aspects de notre vie quotidienne dans les décennies suivantes.

Le désir de créer des machines pensantes ne date pas d’hier. Pascal et Leibniz avaient construit des calculateurs mécaniques au XVIIe siècle. Babbage avait conçu sa machine analytique au XIXe. Mais il a fallu l’urgence de la guerre, l’investissement massif des États et la collaboration entre universités et industries pour que le rêve devienne réalité. L’ordinateur moderne naît de cette alchimie complexe où se mêlent nécessité militaire, recherche mathématique et ingénierie électronique.

En 1950, l’informatique sort à peine de sa préhistoire. Les machines sont énormes, fragiles, coûteuses. Seuls quelques initiés comprennent leur fonctionnement et leurs possibilités. Pourtant, le chemin vers le changement numérique est tracé. Les bases théoriques et techniques sont posées. Les premières applications civiles apparaissent.

L’aventure qui s’amorce va durer plus longtemps que la plupart des révolutions technologiques. Soixante-quinze ans plus tard, nous vivons dans les remous de cette transformation. L’ordinateur, enfant de la guerre devenu outil universel, continue de modifier notre rapport au savoir, au travail, à la communication. Son histoire commence vraiment dans les années 1940, quand des hommes et des femmes, face aux défis d’un monde en flammes, ont inventé des machines à penser.

À l’aube des années 1950, une page se tourne. Les pionniers cèdent la place aux industriels. La recherche fondamentale s’efface devant les applications pratiques. L’informatique entre dans sa phase commerciale. Des noms comme IBM, Remington Rand, Ferranti ou Bull s’imposent. Une nouvelle industrie prend son envol, portée par les besoins croissants d’une économie en pleine expansion. Nul ne soupçonne l’ampleur des bouleversements à venir.

Haut de page

Ordinateur d’Atanasoff et Berry

L’hiver de 1937, John Vincent Atanasoff, physicien et mathématicien à l’université d’Iowa State, rentrait chez lui par une nuit glaciale. Durant ce trajet, son cerveau s’illumina soudain d’une intuition qui transformerait le monde : quatre principes fondamentaux qui formeraient la base conceptuelle du premier ordinateur électronique. Ces principes étaient l’utilisation de l’électronique pour les calculs, l’adoption du système binaire, la séparation du calcul et de la mémoire, et le rafraîchissement périodique des données en mémoire.

Né en 1903 à Hamilton, New York, Atanasoff avait étudié l’ingénierie électrique en Floride avant de se tourner vers les mathématiques à l’Iowa State College. Son doctorat en physique théorique du MIT, achevé en 1930, l’avait confronté aux limites des calculateurs mécaniques existants. Ces machines obsolètes freinaient ses recherches sur la constante diélectrique de l’hélium, problème nécessitant une puissance de calcul alors inexistante.

La rencontre avec Clifford Berry changea la donne. Ce jeune étudiant brillant en génie électrique apporta les compétences techniques nécessaires à la mise en œuvre des idées d’Atanasoff. Leur collaboration débuta en 1939 par un prototype rudimentaire validant les concepts de base. Ce succès initial leur valut une modeste subvention de 850$ pour construire la machine complète, l’Atanasoff Berry Computer (ABC).

Cette machine pesait plus de 300 kg et comportait divers éléments novateurs. Des tambours rotatifs couverts de condensateurs stockaient les données sous forme binaire. Des tubes à vide exécutaient les opérations logiques. Des cartes perforées assuraient l’entrée et la sortie des données. Une horloge centrale cadençait l’ensemble. Contrairement aux autres calculateurs, l’ABC ne traitait pas les chiffres directement mais les convertissait en binaire, prémisse de tous les ordinateurs modernes. Sa finalité restait spécifiquement de résoudre des systèmes d’équations linéaires jusqu’à 29 équations à 29 inconnues, avec une précision remarquable de quinze chiffres décimaux.

Le destin de cette machine prit un tour tragique. Achevée en 1942, l’ABC fut délaissée quand ses créateurs quittèrent l’université pour participer à l’effort de guerre. La machine souffrait de soucis de fiabilité, notamment au niveau du système de cartes perforées. L’université négligea de finaliser la procédure de brevet entamée par Atanasoff. Ces circonstances regrettables conduisirent au démantèlement de l’ABC en 1948, sans que sa contribution à l’informatique ne soit reconnue.

L’injustice s’amplifia avec l’apparition de l’ENIAC en 1945. Cette machine conçue par Presper Eckert et John Mauchly à l’université de Pennsylvanie fut longtemps célébrée comme le premier ordinateur électronique. La réalité était tout autre. Mauchly avait visité Atanasoff à Iowa State en juin 1941, examiné l’ABC en détail et lu le manuscrit de 35 pages décrivant son architecture. De nombreux concepts fondamentaux de l’ABC se retrouvèrent dans l’ENIAC, sans attribution à leur véritable créateur. Le talent médiatique de Mauchly et les généreux financements militaires firent le reste : l’ENIAC vola la vedette, Atanasoff tomba dans l’oubli.

La vérité éclata au grand jour lors d’un procès retentissant. Dans les années 1960, Honeywell contesta la validité du brevet de l’ENIAC détenu par Sperry Rand. La bataille juridique, qui dura de 1971 à 1973, mit en lumière l’appropriation des idées d’Atanasoff par Mauchly. Le juge trancha sans ambiguïté : Eckert et Mauchly n’avaient pas inventé l’ordinateur numérique électronique mais s’étaient inspirés des travaux d’Atanasoff. Le brevet fut invalidé, plaçant l’invention de l’ordinateur dans le domaine public.

La reconnaissance officielle arriva enfin pour Atanasoff. Dans les décennies suivantes, il reçut de multiples distinctions, dont la prestigieuse National Medal of Technology remise par le président George H. W. Bush en 1990. Des livres, une biographie par Clark Mollenhoff en 1988, et un documentaire (Atanasoff : Forgotten Father of the Computer, 2012) lui furent consacrés. Une réplique exacte de l’ABC fut construite dans les années 1990 et exposée à l’Iowa State University, à côté d’un rare tambour de mémoire original.

L’histoire d’Atanasoff illustre la façon dont le génie solitaire peut transformer une discipline. En questionnant radicalement les approches existantes, il posa les bases conceptuelles de toute l’informatique du XXe siècle. Certains de ses concepts, comme l’usage de l’électronique ou du binaire, s’imposèrent avec l’ENIAC puis l’EDVAC. D’autres, tel le programme enregistré, mirent plus de temps à devenir des standards industriels. L’ABC joua un rôle de catalyseur dans l’évolution du calcul électronique, justifiant pleinement pour Atanasoff le titre de père de l’informatique moderne.

Haut de page

Réseaux de neurones artificiels

Au milieu du XXe siècle, la recherche sur l’intelligence artificielle connut une avancée remarquable avec les travaux de Warren McCulloch et Walter Pitts. Ces deux chercheurs, que tout semblait opposer, unirent leurs talents pour concevoir un modèle mathématique du neurone. Leur proposition fit évoluer notre compréhension du cerveau et fonda la théorie des futures technologies d’apprentissage automatique.

En 1943, McCulloch, neuropsychiatre chevronné, et Pitts, jeune prodige des mathématiques, publièrent un article fondateur. Ce texte novateur A Logical Calculus of the Ideas Immanent in Nervous Activity établit une correspondance entre le fonctionnement des neurones biologiques et les opérations logiques. Les auteurs s’appuyèrent sur le caractère « tout ou rien » de l’activité neuronale pour modéliser les cellules nerveuses comme des dispositifs binaires, soit actifs, soit inactifs. Cette simplification leur donna la possibilité de construire une équivalence avec la logique booléenne et ses valeurs « vrai/faux ».

Les parcours de ces deux chercheurs méritent qu’on s’y attarde. McCulloch, formé à la psychiatrie, nourrissait depuis longtemps des questionnements philosophiques sur la nature logique de la pensée et son substrat physiologique. Durant les années 1930, il s’investit dans la recherche en neurophysiologie et collabora notamment avec J. G. Dusser de Barenne à Yale, où ils étudièrent la localisation des fonctions cérébrales. Pitts, quant à lui, se distingua par son génie précoce pour les mathématiques. Sans formation académique formelle, il se passionna pour la logique mathématique dès son plus jeune âge, dévorant les Principia Mathematica de Bertrand Russell. Au début des années 1940, il rejoignit l’équipe de Nicolas Rashevsky à l’université de Chicago, groupe pionnier dans l’application des mathématiques à la biologie.

La rencontre entre McCulloch et Pitts survint en 1942, orchestrée par Jerome Lettvin. Malgré leur différence d’âge significative, ils découvrirent très vite leurs intérêts communs. Pitts s’enthousiasma pour le concept de « machine logique », capable d’exécuter des raisonnements, idée qu’il rattachait aux travaux de Leibniz et Turing. McCulloch, de son côté, tentait depuis les années 1920 de traduire l’activité neuronale en calcul logique. Ensemble, ils se demandèrent si le système nerveux ne fonctionnait pas comme une telle machine logique.

Leur article de 1943 marie avec audace des éléments de neurophysiologie, de philosophie et de mathématiques. Ils y présentent un modèle simplifié du neurone comme une entité binaire qui s’active ou non selon la somme de ses entrées excitatrices et inhibitrices, émettant un signal lorsque cette somme dépasse un certain seuil. En reliant ces neurones idéalisés, ils démontrent la construction de réseaux utilisant les fonctions logiques fondamentales (ET, OU, NON). Leur démarche suit une approche axiomatique : à partir d’hypothèses simplificatrices sur l’activité neuronale, ils bâtissent un calcul logique des relations entre neurones.

Les auteurs soulignent eux-mêmes les limites théoriques de leur modèle. Ils ne cherchent pas à représenter fidèlement les neurones biologiques, mais à établir un cadre formel pour raisonner sur des réseaux hypothétiques aux propriétés connues. Ils admettent que l’activité des neurones réels s’avère plus continue que discrète et que des phénomènes comme l’apprentissage modifient durablement la structure des réseaux. Leur ambition réside ailleurs : fournir un outil mathématique pour manipuler rigoureusement des réseaux connus et créer aisément des réseaux aux propriétés désirées.

Cette approche théorique de la biologie, dont Nicolas Rashevsky fut un ardent promoteur, marque l’article de McCulloch et Pitts. Physicien de formation, Rashevsky fonda dans les années 1930 un programme de « biophysique mathématique » à Chicago. Selon lui, la biologie mathématique devait procéder par abstractions et idéalisations, similairement à la physique. Comme le physicien étudie des concepts idéaux tels que le point matériel ou le fluide parfait, le biologiste théoricien doit partir de modèles simplifiés pour saisir progressivement la complexité du vivant. Les mathématiques, d’après Rashevsky, offrent un cadre précieux pour formaliser les phénomènes biologiques et en déduire des propriétés par un raisonnement rigoureux.

C’est dans cet esprit que McCulloch et Pitts façonnent leur modèle de réseaux de neurones logiques. Leur projet ne vise pas tant à décrire le système nerveux réel qu’à montrer comment un réseau d’éléments simples, connectés adéquatement, développe des fonctions logiques et, potentiellement, des raisonnements complexes. Leur travail se rattache aussi aux réflexions contemporaines sur les fondements logiques du calcul, illustrées par la machine de Turing. En 1936, Turing avait montré comment définir le processus de calcul par une machine abstraite manipulant des symboles selon des règles précises. McCulloch et Pitts s’inspirent de cette idée pour concevoir le cerveau comme une machine logique, dont les composants élémentaires seraient les neurones tout-ou-rien.

L’impact de cet article dépassa toutes les attentes. Sur le plan théorique, il posa les fondations des neurosciences computationnelles et des sciences cognitives : l’idée que des fonctions cognitives complexes naissent de réseaux d’unités simples inspira de nombreux travaux en intelligence artificielle et en neurosciences. L’article présente aussi une dimension philosophique en proposant une vision mécaniste de l’esprit, où la pensée se réduirait à des opérations logiques exécutées par des réseaux de neurones. Cette conception marqua durablement les débats sur la nature de l’intelligence et ses rapports au substrat biologique.

Le modèle proposé comporte certes d’importantes limitations, que les auteurs reconnaissent. Il idéalise le neurone comme entité binaire à seuil fixe, alors que les neurones biologiques possèdent des dynamiques continues et adaptatives. Il suppose une structure de réseau figée, quand les connexions neuronales se reconfigurent constamment par plasticité. Néanmoins, par sa clarté formelle, l’article ouvrit un vaste champ de recherches. Il montra comment une approche mathématique éclaire le fonctionnement du système nerveux et, plus largement, les bases biologiques de l’intelligence.

Ce travail témoigne de la richesse des échanges interdisciplinaires. Il naît au carrefour de questionnements philosophiques sur l’esprit, d’avancées expérimentales en neurophysiologie et de développements formels en logique mathématique. C’est par ce croisement que McCulloch et Pitts aboutissent à une vision nouvelle, où le cerveau apparaît comme système de traitement logique de l’information. Si leur modèle demeure rudimentaire, il esquisse les contours conceptuels des futures recherches sur les réseaux de neurones formels et leurs applications.

Haut de page

Colossus

Au cœur de la guerre secrète que livraient les cryptanalystes britanniques, une machine électronique permit le déchiffrement des messages ennemis et changea le cours de l’histoire : Colossus.

Entre 1943 et 1945, dans le silence des bâtiments de Bletchley Park, dans le Buckinghamshire en Angleterre, Tommy Flowers dirigea la construction d’une série de calculateurs destinés à percer les codes de la machine allemande Lorenz SZ40. Les cryptanalystes britanniques l’avaient surnommée « Tunny » – le thon. Les Allemands, eux, l’appelaient Schlüsselzusatz ou SZ. La mission de Colossus était de trouver les réglages initiaux des rotors de Lorenz pour décoder les messages captés.

Techniquement, Colossus incarnait une prouesse. La machine lisait 5 000 caractères par seconde sur des bandes perforées, effectuait des calculs booléens à la volée et imprimait immédiatement les résultats. Son cœur battait au rythme de 1 500 tubes à vide, à une fréquence de 5 000 impulsions par seconde. Elle disposait de circuits arithmétiques binaires, d’une forme primitive de mémoire et de capacités de branchement conditionnel.

Cette réalisation n’aurait jamais vu le jour sans le mariage des mathématiques et de l’ingénierie. Max Newman et Alan Turing, par leur vision théorique, ont aidé à la conception de cette machine, même si Turing n’a pas directement participé au projet. Ses travaux sur la « machine universelle » ont néanmoins infusé l’esprit du projet.

Le premier modèle fonctionna début 1944. Un succès tel qu’une dizaine d’exemplaires furent construits jusqu’à la fin de la guerre. Chose remarquable pour l’époque, Colossus fonctionnait sans tomber en panne. Une fiabilité rare, héritée du savoir-faire téléphonique de l’équipe de Dollis Hill. Cette machine donna des résultats exploitables presque immédiatement, quand les premiers ordinateurs électroniques exigeaient de longs mois de calibration avant de fonctionner correctement.

L’impact de Colossus sur l’issue du conflit reste difficile à mesurer avec précision. Des témoignages suggèrent un rôle capital dans l’anticipation des mouvements allemands autour du débarquement en Normandie. La machine aurait a priori déchiffré des messages signés par Hitler.

Pendant trois décennies, Colossus resta dans l’ombre du secret militaire. L’ENIAC américain recevait les honneurs quand Colossus dormait dans l’oubli. Il fallut attendre le milieu des années 1970 et le travail de Brian Randell pour que son existence soit révélée.

La qualification exacte de Colossus divise toujours. S’agissait-il d’un véritable ordinateur ? Randell le définit comme un « calculateur électronique programmable à usage spécifique ». Tommy Flowers, lui, préférait parler de « processeur électronique ». Car Colossus ne calculait pas comme les ordinateurs classiques. Il exécutait un programme fixe, sans possibilité réelle de modification. Sa logique, basée sur des flux de bits plutôt que sur des mots, le distinguait des architectures traditionnelles. Cette nature hybride représente sa véritable force, et témoigne de la richesse des approches dans cette période fondatrice. L’histoire des machines n’a pas suivi une ligne droite vers l’ordinateur moderne, mais a exploré différentes voies pour répondre à des problèmes concrets.

Le succès de Colossus tient aussi à sa pertinence pratique. Il répondait parfaitement aux besoins des cryptanalystes dans un contexte d’urgence. Son histoire nous rappelle que le développement technologique se nourrit d’innovations théoriques, d’adéquation aux usages, de fiabilité et d’efficacité opérationnelle.

Haut de page

Harvard Mark I

Dans les années 1930, le paysage scientifique manquait d’outils capables de résoudre des problèmes mathématiques d’une grande complexité. Howard Aiken, physicien en herbe à Harvard, s’attela à combler cette lacune. Durant l’année 1937, il esquissa les plans d’un calculateur qui traiterait des lignes entières au lieu des colonnes qu’affectionnaient les machines de l’époque. Il y voyait une machine capable de jongler avec les nombres positifs et négatifs, de manier les fonctions transcendantes et d’enchaîner automatiquement les calculs.

Après un parcours semé d’embûches auprès de différents fabricants, Aiken finit par convaincre IBM. L’entreprise baptisa le projet Automatic Sequence Controlled Calculator (ASCC). Mars 1939 marqua la signature d’un accord entre IBM qui construirait la machine pour en faire cadeau à Harvard qui fournirait locaux et personnel. La construction démarra deux mois plus tard dans les laboratoires d’IBM à Endicott, New York. Aiken collabora étroitement avec l’ingénieur Clair D. Lake pour mener à bien ce projet ambitieux.

Le prototype vit le jour en janvier 1943 et passa avec succès ses tests initiaux. Transporté démonté vers Harvard, il prit place au sous-sol du Physics Research Laboratory. Dès le printemps 1944, alors qu’il devenait opérationnel, son utilisation fut détournée vers l’effort de guerre. Robert Campbell prit les commandes d’une équipe de la marine américaine où figuraient Grace Murray Hopper et Richard Bloch. Aiken, officier de réserve, rejoignit le service actif en 1941 pour travailler sur les mines navales avant de prendre le commandement du Mark I.

Le 7 août 1944, une cérémonie officielle réunit James Bryant Conant, président de Harvard, et Thomas J. Watson Sr., président d’IBM. L’événement tourna au vinaigre suite à un communiqué de presse rédigé sous l’influence d’Aiken qui s’attribuait tout le mérite de l’invention, effaçant presque totalement la contribution d’IBM. Watson, furieux, menaça de boycotter la cérémonie. Aiken dut battre en retraite et reconnaître le rôle joué par Lake, Hamilton et Durfee dans la création de cette machine.

Le monstre mécanique impressionnait par ses dimensions : 15,5 mètres de long, 2,4 mètres de haut pour une masse de 4,5 tonnes. Son ventre abritait des relais électromagnétiques, des compteurs décimaux rotatifs et des rubans perforés pour l’entrée des instructions. Les données entraient par cartes perforées et sortaient via des machines à écrire électriques modifiées. Lent comparé aux futures merveilles électroniques, le Mark I compensait par une fiabilité exemplaire. Il tournait sans interruption, jour et nuit, produisant un flot continu de résultats.

Au-delà de l’exploit technique, cette machine incarna la faisabilité des calculateurs automatiques à grande échelle. Ces machines pouvaient désormais suivre une séquence d’opérations du début à la fin sans intervention humaine. L’écho médiatique mondial généré par ses prouesses balaya les derniers doutes quant à l’avenir de telles machines dans la sphère scientifique. Le Harvard Mark I symbolise la transition entre l’ère du calcul manuel et l’aube de l’informatique moderne.

Aiken ne s’arrêta pas à cette première réussite. Il développa une série de quatre calculateurs toujours plus sophistiqués. Visionnaire, il comprit que ces nouvelles machines appelaient une nouvelle génération de mathématiciens capables de les programmer. Il persuada Harvard de créer un cursus spécifique, d’abord en maîtrise puis en doctorat, dans cette discipline naissante qu’était l’informatique. Premier professeur titulaire dans ce domaine encore vierge, il initia ce qui semble avoir été le premier programme académique du genre au monde. Son enseignement façonna des pionniers comme Gerrit Blaauw, Frederick Brooks Jr., Kenneth Iverson et Anthony Oettinger.

Haut de page

ENIAC

En 1943, l’armée américaine lança un projet ambitieux pour accélérer ses calculs balistiques. La guerre battait son plein et les tables de tir d’artillerie, vitales pour la précision des bombardements, exigeaient des calculs interminables. La Moore School of Electrical Engineering de l’université de Pennsylvanie fut chargée de créer une machine radicalement nouvelle, sous la direction de John Mauchly et J. Presper Eckert.

Baptisée ENIAC (Electronic Numerical Integrator and Computer), cette machine marqua une rupture avec les calculateurs électromécaniques. Son développement mobilisa une énergie colossale : environ 200 000 heures de travail furent nécessaires pour aboutir, en novembre 1945, à un monstre technologique. Trop tard pour servir pendant la guerre, l’ENIAC s’imposa néanmoins comme une prouesse d’ingénierie sans précédent.

Les chiffres donnent le vertige : 30 tonnes d’équipement réparties sur une surface de 150 m2, 40 grands panneaux abritant 18 000 tubes à vide, 1 500 relais, 10 000 condensateurs et 6 000 commutateurs manuels. Contrairement à l’ABC d’Atanasoff qui utilisait le binaire, l’ENIAC manipulait directement des nombres décimaux de 10 chiffres. Sa mémoire se composait d’accumulateurs stockant chacun un nombre, complétés par des tables de fonctions pour les constantes.

L’ENIAC se programmait d’une façon rudimentaire et fastidieuse. Il fallait régler des milliers de commutateurs et brancher des centaines de câbles, opération qui pouvait prendre quelques jours. Une fois configuré, cependant, ses performances stupéfiaient : 5 000 additions ou 385 multiplications par seconde, pulvérisant les records des machines existantes.

Le 14 février 1946, une conférence de presse soigneusement orchestrée dévoila l’ENIAC au monde. L’effet fut saisissant. Les journaux s’enflammèrent, qualifiant la machine de « cerveau géant », de « cerveau magique » ou de « calculateur météore ». Pour la première fois, les médias attribuaient des capacités quasi humaines à une machine. Cette anthropomorphisation marqua l’imaginaire collectif, malgré les tentatives de Mauchly pour tempérer l’enthousiasme en rappelant que l’ENIAC exécutait simplement des calculs sans vraiment « penser ». Le mythe était né, la machine capable de résoudre tous les problèmes venait d’apparaître.

Ce que le public ignorait, c’est que l’ENIAC s’inspirait largement des travaux antérieurs de John Atanasoff et Clifford Berry. Comme révélé plus tard lors d’un procès retentissant, Mauchly avait visité Atanasoff en 1941 et étudié en détail l’ABC, y reprenant plusieurs concepts fondamentaux sans jamais en créditer les inventeurs. Cette controverse sur la paternité de l’ordinateur électronique resta enfouie pendant des décennies, alors que l’ENIAC récoltait tous les honneurs.

L’ENIAC fut aussi le premier ordinateur programmé par des femmes, une autre réalité méconnue. Des mathématiciennes et physiciennes, auparavant employées comme « computers » humains pour effectuer des calculs à la main, furent sélectionnées pour leur excellence. Six d’entre elles devinrent les premières programmeuses de l’histoire. Elles développèrent les programmes initiaux et réalisèrent d’innombrables calculs, souvent dans l’ombre, leur contribution restant longtemps ignorée.

La Guerre froide offrit à l’ENIAC une seconde vie. Installé à l’Aberdeen Proving Ground dans le Maryland, il servit pour les tables balistiques initialement prévues, ainsi que pour des calculs liés aux premières bombes thermonucléaires. Sa capacité à résoudre rapidement des équations complexes accéléra les recherches en physique nucléaire et dans d’autres domaines scientifiques.

Bien que retiré du service en 1955, l’ENIAC laissa une empreinte durable sur le développement de l’informatique. Il stimula la recherche aux États-Unis, tant au niveau matériel que théorique. Les leçons tirées de sa conception inspirèrent directement des machines plus avancées comme l’EDVAC et l’UNIVAC. Parallèlement, des figures comme John von Neumann, Alan Turing et Claude Shannon élaborèrent les bases théoriques qui allaient structurer la discipline.

L’influence de l’ENIAC dépassa largement les frontières américaines. Sa médiatisation fit prendre conscience au monde entier du potentiel des ordinateurs électroniques. Des projets similaires émergèrent au Royaume-Uni, en URSS, en Allemagne et au Japon. En une décennie, l’informatique passa d’expérimentale à industrielle. Le concept d’« ordinateur » s’installa dans la culture populaire, mêlant fascination et inquiétude face à ces « cerveaux électroniques » aux capacités mystérieuses.

L’histoire de l’ENIAC connut un rebondissement dans les années 1970. Un procès retentissant, opposant Honeywell à Sperry Rand (détenteur du brevet de l’ENIAC), révéla l’appropriation des idées d’Atanasoff par Mauchly. Le juge statua en 1973 que l’ENIAC n’était pas le premier ordinateur électronique et invalida son brevet, plaçant ainsi l’invention dans le domaine public. Cette décision juridique eut des conséquences capitales sur l’évolution ultérieure de l’informatique.

L’annulation du brevet de l’ENIAC libéra un potentiel d’innovation considérable. Privés de l’exclusivité sur les concepts fondamentaux, les laboratoires et entreprises durent miser sur des améliorations techniques spécifiques plutôt que sur la protection juridique des idées de base. Cette situation favorisa une éclosion remarquable de machines concurrentes : IBM, DEC, Control Data Corporation et d’autres s’engouffrèrent dans la brèche, chacun proposant sa vision de l’architecture informatique. Sans cette décision, le paysage numérique aurait pu ressembler davantage à une industrie dominée par quelques détenteurs de brevets imposant leurs conditions au marché. L’informatique prit au contraire un chemin unique où les principes fondateurs restèrent accessibles à tous tandis que les innovations spécifiques pouvaient être protégées. Cette dynamique singulière explique en partie la vitesse stupéfiante à laquelle les ordinateurs évoluèrent des monstres de plusieurs tonnes aux machines personnelles, puis aux appareils mobiles que nous connaissons maintenant.

Ce basculement dans la perception des machines calculantes fut peut-être la contribution la plus durable de l’ENIAC, malgré sa paternité controversée. En quelques temps, l’image publique des ordinateurs se transforma radicalement : de simples outils de calcul, ils devinrent des entités potentiellement capables de surpasser l’intelligence humaine. Cette vision, bien qu’exagérée, orienta les recherches en informatique pour les décennies suivantes, notamment avec l’émergence de l’intelligence artificielle dans les années 1950.

Haut de page

Mémoire à ligne de retard

Les premiers calculateurs électroniques se heurtaient à la limite du stockage de leurs données et leurs instructions. L’ENIAC ne possédait qu’une vingtaine de registres à tubes à vide, une solution ruineuse pour toute mémoire substantielle.

C’est alors que J. Presper Eckert imagine un concept novateur de transformation des signaux électriques en ondes sonores circulant dans un tube de mercure. Ces vibrations, captées à l’autre bout, redevenaient électriques avant d’être réinjectées en entrée. La boucle était bouclée. Cette astuce multipliait par cent la capacité des mémoires à prix égal, chaque ligne pouvant contenir jusqu’à 500 bits.

Maurice Wilkes et son équipe de Cambridge donnèrent vie à cette idée dans l’EDSAC en 1949. Leur machine exploitait 32 tubes de mercure stockant 512 mots de 36 bits. Un mot y circulait toutes les 48 microsecondes sur chacune des 128 lignes, tandis qu’une simple addition nécessitait 864 microsecondes.

Cette technologie répondait aux besoins qu’avait identifiés John von Neumann dans sa description de l’EDVAC en 1945. Il y soulignait la nécessité d’une mémoire « interne » distincte des dispositifs externes comme les cartes perforées. Cette mémoire devait conserver résultats intermédiaires, instructions, tables de fonctions, conditions initiales et résultats d’itérations successives.

Malgré son ingéniosité, cette technologie souffrait de fiabilité incertaine et de coûts élevés. Les constructeurs lui préférèrent la mémoire à tambour magnétique. Les IBM 650 s’équipèrent ainsi de tambours capables de stocker jusqu’à 2 000 mots de dix chiffres, avec un temps d’accès moyen de 2,4 millisecondes, limité par la rotation du tambour à 12 500 tours par minute.

L’EDVAC illustra cette transition : en 1954, une mémoire à tambour de 4608 mots vint compléter ses lignes de retard. Les tambours restèrent présents jusque dans les années 1960, principalement comme mémoire secondaire.

La mémoire à ligne de retard a prouvé qu’on pouvait bâtir des mémoires de grande capacité séparées des unités de calcul, concrétisant ainsi l’architecture de von Neumann. Elle a été le concept fondateur de notre hiérarchie mémoire actuelle.

Les années 1960 virent l’avènement des tores magnétiques. Sans pièces mobiles, ils offraient un accès véritablement aléatoire avec des temps de cycle d’environ 6 microsecondes—mille fois plus rapides que les tambours. Les capacités explosèrent : le CDC 6600 de 1965, cadencé à 100 nanosecondes, disposait d’environ 128 000 mots accessibles en 1 microseconde.

La ligne de retard symbolise les équilibres délicats recherchés par les pionniers entre coût et performance, fiabilité et capacité, complexité et faisabilité. Elle témoigne de l’inventivité des premiers architectes d’ordinateurs, confrontés à des défis avec les moyens techniques du XXe siècle.

Le principe de circulation et régénération des données qu’elle mit en œuvre se retrouve, transformé, dans les mémoires DRAM contemporaines. Sa trajectoire illustre un motif récurrent dans l’histoire informatique : une innovation technique surmonte un obstacle, avant d’être supplantée par des solutions plus performantes.

La mémoire à ligne de retard représente l’instant où les ordinateurs acquirent une véritable mémoire de travail, distincte des unités de calcul et du stockage permanent. Cette séparation, devenue axiomatique dans l’architecture des ordinateurs modernes, trouva sa première expression concrète avec cette technologie.

Haut de page

Méthode de Monte Carlo

L’histoire de la méthode Monte Carlo débute dans le cadre singulier du projet Manhattan durant la Seconde Guerre mondiale. Les chercheurs de Los Alamos butaient sur des calculs de physique nucléaire d’une complexité inédite. Le manque d’outils adaptés stimula leur imagination mathématique.

Dès les années 1930, Enrico Fermi, physicien italien naturalisé américain en 1945, expérimenta quelques techniques d’échantillonnage statistique pour résoudre ses équations de neutronique. Ces balbutiements restèrent confidentiels, faute d’ordinateurs capables de traiter de grands volumes de calculs.

La véritable naissance de Monte Carlo survint en 1946. Stanislaw Ulam, mathématicien polonais, se remettait d’une maladie en jouant au solitaire. Une question le tarauda : comment calculer exactement les chances de gagner une partie ? L’idée lui vint de simuler un nombre colossal de parties pour obtenir une estimation statistique fiable. Cette intuition fulgurante rencontra l’enthousiasme de John von Neumann, qui programma les premières simulations sur l’ENIAC en 1947. Pour ces calculs, il créa une technique mathématique puissante de génération de nombres pseudo-aléatoires, baptisée middle-square digits, pour estimer des valeurs numériques et résoudre des problèmes complexes. Le nom « Monte Carlo » naquit d’une plaisanterie de Nicholas Metropolis, en clin d’œil à l’oncle d’Ulam, joueur compulsif au casino monégasque.

Entre 1946 et 1947, pendant une panne prolongée de l’ENIAC, Enrico Fermi conçut le FERMIAC, appareil mécanique étonnant capable de simuler la diffusion des neutrons selon le principe Monte Carlo. Cette invention témoigne de l’engouement immédiat des physiciens pour cette approche radicalement nouvelle.

Un bond conceptuel intervint en 1953 avec l’algorithme imaginé par Metropolis et son équipe, dont les physiciens Marshall et Augusta Mici Rosenbluth, ainsi qu’Edward Teller. Leur méthode exploitait les chaînes de Markov pour générer des échantillons suivant une distribution donnée et explorer des espaces complexes. En 1970, Wilfred Keith Hastings enrichit cette approche, aboutissant à l’algorithme Metropolis-Hastings, pilier actuel de la statistique computationnelle moderne.

La décennie 1980 vit fleurir des variantes inspirées. L’algorithme du recuit simulé, conçu par Kirkpatrick, Gelatt et Vecchi en 1983, adapta Monte Carlo à l’optimisation combinatoire en s’inspirant du refroidissement contrôlé des métaux. Un an plus tard, les frères Geman appliquèrent l’échantillonnage de Gibbs au traitement d’images, ouvrant de nouveaux horizons en vision artificielle.

Le début des années 1990 marqua la consécration des méthodes Monte Carlo par chaînes de Markov grâce aux travaux fondamentaux de Gelfand et Smith. Ces avancées bouleversèrent l’inférence bayésienne et transformèrent la pratique statistique quotidienne. Cette décennie foisonnante vit aussi émerger l’algorithme du saut réversible de Peter Green en 1995, qui autorisait l’exploration d’espaces de dimensions variables, ainsi que l’échantillonnage parfait de Propp et Wilson en 1996, garantissant des échantillons exactement distribués.

L’évolution de Monte Carlo illustre le dialogue fécond entre théorie et technologie. Des premiers calculateurs jusqu’aux supercalculateurs actuels, chaque bond de puissance a décuplé le potentiel de ces méthodes. Leurs champs d’application se sont diversifiés : physique statistique, chimie moléculaire, finance quantitative, apprentissage automatique, et infographie 3D avec le transport de lumière de Metropolis d’Eric Veach en 1997.

Ironie historique, cette technique initialement mise au point pour les armes nucléaires sert désormais la médecine moderne. Monte Carlo sert en radiothérapie pour simuler avec une précision inégalée les interactions entre rayonnements et tissus biologiques. Son impact scientifique colossal lui a valu d’être désigné comme l’un des dix algorithmes les plus décisifs du XXe siècle par la Society for Industrial and Applied Mathematics.

Haut de page

Tube Williams

L’après-guerre fut témoin d’une quête frénétique pour résoudre l’épineux problème du stockage de données dans les premiers calculateurs électroniques. Tandis que Presper Eckert et John Mauchly s’acharnaient sur les lignes à retard au mercure à Philadelphie et que Jay Forrester entamait ses recherches sur les tores magnétiques au MIT, Frederic Williams traçait un chemin différent au Telecommunications Research Establishment de Great Malvern.

La visite de Williams au projet ENIAC en 1946 lui donna deux clés : l’idée du programme enregistré et le besoin vital d’un stockage électronique rapide. Son passé dans les circuits radar durant le conflit mondial l’amena, avec son doctorant Tom Kilburn, à explorer les tubes cathodiques comme dispositifs mémoire. Les ordinateurs réclamaient environ 32 000 bits binaires organisés en 1 024 mots de 32 bits. Les bascules électroniques auraient exigé plus de 64 000 tubes à vide, rendant toute fiabilité chimérique.

La trouvaille de Williams et Kilburn reposait sur un phénomène physique subtil : le bombardement d’électrons sur l’écran créait un puits de potentiel positif. Un second bombardement à proximité générait des électrons secondaires qui comblaient partiellement le premier puits. La détection de ce comblement lors d’un balayage ultérieur déterminait si un 1 ou un 0 avait été inscrit. Une plaque métallique contre l’écran captait ces variations infimes de charge.

Cinq variantes de ce principe virent le jour. Le système dot-dash codait un 0 par un point et un 1 par un tiret. Le dash-dot inversait cette logique. Les systèmes defocus-focus et focus-defocus jouaient sur la netteté du faisceau. Le système anticipation exploitait un signal prédictif lors de la destruction d’une charge.

Début 1947, désormais à l’Université de Manchester, Williams et Kilburn stockèrent leur premier bit stable. À l’automne, ils maintinrent 1 024 digits pendant plusieurs heures. Leur éclair de génie fut d’introduire un mécanisme de régénération. La charge ne subsistant que quelques dixièmes de seconde, le contenu était sans cesse lu et réécrit – technique qui survit dans nos mémoires DRAM actuelles.

Juin 1948 vit naître le Manchester Baby, surnom du Small-Scale Experimental Machine. Ce prototype utilisait trois tubes : un pour le stockage principal (32 mots), un pour l’accumulateur (registre de calcul), et un dernier pour le contrôle (compteur ordinal et instruction courante). Son architecture autorisait un accès aléatoire à la mémoire, quand les lignes à retard imposaient un accès séquentiel. Son jeu d’instructions se résumait à sept opérations : JMP (saut), JRP (saut relatif), LDN (chargement du négatif), STO (stockage), SUB (soustraction), CMP (comparaison) et STP (arrêt).

Deux nouvelles moutures surgirent en 1949. La première offrait 128 mots de 40 bits avec un multiplicateur électronique. Elle servit à des calculs sophistiqués comme la vérification de l’hypothèse de Riemann et le test de primalité des nombres de Mersenne. La seconde mariait la mémoire Williams à un tambour magnétique stockant 40 960 bits supplémentaires, créant ainsi une hiérarchie mémoire à deux niveaux qui annonçait l’organisation des ordinateurs futurs.

IBM s’empara de cette technologie en 1951, acquit une licence et lança la fabrication de tubes Williams pour son 701, premier calculateur commercial de la firme. Cette industrialisation exigea des prouesses, l’entreprise créa des environnements ultra-propres avant l’heure. Le personnel portait des blouses en orlon pour éviter les particules textiles. Des tapis collants piégeaient la poussière des chaussures. Ces pratiques devancèrent celles adoptées plus tard pour les semi-conducteurs.

La version finale de l’ordinateur de Manchester, livrée en 1951, alignait huit tubes Williams stockant chacun 1 024 bits (mémoire totale de 10 240 bits), complétés par un tambour magnétique de 150 000 bits. Elle traitait les instructions en 1,2 milliseconde et effectuait les multiplications en 2,16 millisecondes. Ses applications touchaient la biologie, l’optique, la cristallographie, l’ingénierie chimique et même les échecs.

Les contraintes techniques des tubes Williams se révélèrent nombreuses. La qualité de l’écran phosphorescent s’avérait capitale : la moindre imperfection – particule de carbone ou trou microscopique – compromettait le stockage. Le faisceau exigeait une uniformité parfaite sur toute la surface. La vitesse de balayage nécessitait un contrôle d’une précision absolue.

Malgré ces écueils, la technologie équipa quelques machines des années 1950 : le Ferranti Mark I (héritier commercial de la machine de Manchester), l’IBM 701, et le MANIAC I de Los Alamos. Le milieu de la décennie la vit céder la place aux tores magnétiques de Forrester, plus fiables et plus denses. En 1998, pour célébrer le cinquantenaire du Manchester Baby, Chris Burton dirigea la construction d’une réplique fonctionnelle, jetant une lumière nouvelle sur les problèmes qu’avait affrontés l’équipe de 1948.

Haut de page

Association for Computing Machinery

En 1947, un petit groupe de pionniers, comprenant E. C. Berkeley, R. V. D. Campbell, J. H. Curtiss, H. E. Goheen, J. W. Mauchly, T. K. Sharpless, R. Taylor et C. B. Tompkins, décide de créer une organisation informelle rassemblant les personnes intéressées par les nouvelles machines de calcul et de raisonnement. Le 25 juin 1947, ils diffusent une note proposant la création d’une Eastern Association for Computing Machinery.

Le 15 septembre 1947, l’université Columbia accueille ces 78 pionniers. Curtiss prend la présidence, Mauchly la vice-présidence, et Berkeley, cheville ouvrière du groupe, assume le secrétariat. L’ambition grandit vite. Dès janvier 1948, le qualificatif Eastern disparaît au profit d’une vision nationale.

L’organisation prend forme autour de quatre pôles géographiques : Boston, New York, Philadelphie et Washington. La structure s’articule selon deux niveaux d’échanges : les rencontres locales et nationales. Les sections, d’abord pensées comme des foyers d’activité restreints, s’étendent rapidement. Les chapters véritablement locaux n’apparaîtront que plus tard.

Les années 1950 voient l’ouverture vers d’autres communautés scientifiques. L’ACM tisse des liens avec l’American Institute of Electrical Engineers et l’Institute of Radio Engineers. Ces collaborations donnent naissance, en 1961, à l’American Federation of Information Processing Societies, porte-voix des États-Unis dans le concert international. La croissance rapide bouscule le fonctionnement artisanal des débuts. En 1953, l’évidence s’impose : un secrétaire bénévole ne suffit plus. L’Académie des Sciences de New York prête main-forte pour fournir le personnel et les installations nécessaires, avant que l’association n’établisse son propre quartier général à New York.

Le rayonnement intellectuel se construit par les publications. Le Journal of the ACM voit le jour en 1954, suivi du Communications of the ACM. Ces revues sculptent le paysage académique, fixent des standards d’excellence et structurent un champ disciplinaire en pleine définition.

Avec les années 1960 surgissent les Special Interest Groups, véritables communautés dans la communauté. Ces groupes spécialisés deviennent des laboratoires d’idées, organisent leurs propres rendez-vous scientifiques, diffusent leurs bulletins et font éclore des sous-disciplines fécondes.

L’ACM s’attaque alors au besoin de la formation à cette science nouvelle. En 1968, sous l’égide de William F. Atchison, le comité des programmes d’études publie ses recommandations, texte fondateur pour l’enseignement informatique.

Les honneurs viennent consacrer les grands bâtisseurs de cette science. Le prix Turing, créé en 1966, s’impose comme la distinction suprême. Alan J. Perlis l’inaugure, avant Wilkes, McCarthy et tant d’autres figures majeures. Par la suite, d’autres récompenses suivent : le Distinguished Service Award (1976) et le prix Grace Murray Hopper (1971).

Face à la multiplication des formations et soucieuse de contribuer aux questions sociales, l’ACM crée un comité d’accréditation en 1968. Elle élabore un code d’éthique et met sur pied un système de médiation pour les problèmes liés à l’informatisation de la société.

La décennie 1970 voit fleurir de nouveaux services comme les cycles de conférences nationales, les formations professionnelles continues, ou le centre de documentation au siège. L’association répond ainsi aux attentes d’une communauté qui s’étoffe jour après jour.

Dès les années 1960, l’ACM se préoccupe de la préservation de l’histoire de l’informatique. Grace Hopper et Robert Bemer initient une campagne pour préserver les documents historiques de l’informatique. Ces efforts aboutissent à la création d’archives de l’ACM, d’abord hébergées à l’École Moore d’ingénierie électrique de l’Université de Pennsylvanie.

Au fil du temps, l’ACM se mue en une référence mondiale. Son arsenal de publications s’étoffe : des dizaines de revues spécialisées, des milliers d’actes de conférences, une bibliothèque numérique riche de plus de 430 000 articles. Chaque année, plus de 275 événements rassemblent ses 118 000 membres venus de plus de cent pays. La bibliothèque numérique est un trésor accessible, regroupant l’intégralité des publications depuis 1951. Des outils d’analyse bibliométrique, des profils d’auteurs et d’institutions, des statistiques d’usage enrichissent cette mine d’or scientifique.

Durant trois quarts de siècle, l’ACM a façonné l’informatique comme discipline et comme métier. Par ses publications, ses conférences, ses formations et ses distinctions, elle est une boussole dans le monde numérique.

Haut de page

Transistor

L’hiver 1947 voit naître une innovation qui allait métamorphoser notre rapport à la technologie. Dans les Bell Labs, trois hommes : John Bardeen, Walter Brattain et William Shockley conçoivent le transistor, un minuscule dispositif dont personne ne soupçonne encore la portée. Leur travail leur vaudra le prix Nobel de physique en 1956.

Cette découverte ne doit rien au hasard. Dès les années 1930, Mervin Kelly, directeur de recherche aux Bell Labs, avait pressenti les limites des tubes à vide qui équipaient tous les équipements électroniques. Ces tubes, fragiles comme du cristal, engloutissaient l’énergie et occupaient un espace considérable. Kelly cherchait une alternative et misait sur les semi-conducteurs, matériaux à mi-chemin entre conducteurs et isolants, alors peu compris par la communauté scientifique.

Pour explorer cette voie, Kelly bâtit patiemment une équipe pluridisciplinaire. Il attire William Shockley et Dean Woolbridge en 1936, puis James Fisk et Charles Townes trois ans plus tard. Walter Brattain, déjà présent aux Bell Labs depuis 1929, rejoint l’aventure. L’équipe tient des séminaires pour déchiffrer la physique des semi-conducteurs. Leurs premiers essais sur l’oxyde de cuivre tournent court. À l’aube de la guerre, Russell Ohl propose de se concentrer sur le silicium.

Le conflit mondial donne un coup d’accélérateur à ces recherches. Les radars exigent des fréquences trop élevées pour les tubes à vide. Le germanium et le silicium sont les candidats idéaux, d’autant que l’armée finance des techniques de purification sophistiquées pour ces matériaux. En 1945, Kelly restructure ses laboratoires et crée une section dédiée à la physique des états solides sous la houlette de Shockley. L’équipe s’enrichit de Walter Brattain, Gerald Pearson et John Bardeen, fraîchement recruté.

L’automne 1947 voit une accélération fulgurante des travaux, période que Shockley surnommera plus tard le « mois magique ». Le 17 novembre, Brattain et Ralph Gibney découvrent qu’un dispositif à semi-conducteur plongé dans un électrolyte produit un effet d’amplification. Les expériences s’enchaînent avec du germanium. Le 16 décembre 1947, Bardeen et Brattain obtiennent une amplification notable avec un dispositif à deux points de contact rapprochés. Le transistor vient de naître.

L’histoire s’écrit dans les semaines suivantes. Entre décembre 1947 et février 1948, Shockley élabore la théorie du transistor à jonction, qui s’avérera industriellement viable. Il comprend que l’amplification provient d’une injection de porteurs de charges minoritaires et imagine un sandwich de trois couches semi-conductrices. Le 23 février 1948, une expérience de John Shive valide brillamment cette hypothèse.

La fabrication du premier transistor à jonction tel que l’imaginait Shockley exige deux années supplémentaires de mise au point. Gordon Teal et Morgan Sparks y parviennent en avril 1950, grâce à des innovations métallurgiques. En novembre 1950, Shockley publie Electron and Holes in Semiconductors, bible instantanée pour les scientifiques du domaine.

Les premières applications du transistor surprennent ses créateurs. Les réseaux téléphoniques d’AT&T, qui sont pourtant à l’origine de l’invention, n’adoptent cette technologie qu’à la fin des années 1950. En revanche, les transistors conquièrent les radios portables, les appareils auditifs et surtout l’armée. Le programme de missile Minuteman (1958-1962) intègre des transistors dans son système de guidage informatique.

Les ordinateurs transistorisés éclosent dès le début des années 1950. Les Bell Labs conçoivent le TRADIC, premier ordinateur embarqué à transistors. IBM lance sa calculatrice transistorisée, le modèle 608, en 1957. Philco commercialise ses ordinateurs TRANSAC basés sur sa technologie de transistors à barrière de surface. Texas Instruments, General Electric et RCA proposent des transistors spécifiquement conçus pour l’informatique.

Cette mutation technologique bouleverse aussi les modes de production. Fairchild Semiconductor, fondée en 1957 par huit transfuges de l’entreprise de Shockley, dont Gordon Moore et Robert Noyce, invente de nouvelles méthodes de fabrication. Ces innovations façonnent peu à peu ce qui deviendra la Silicon Valley, épicentre mondial de l’industrie des semi-conducteurs.

Haut de page

Cybernétique

Au cœur des turbulences de la Seconde Guerre mondiale, tandis que les grandes puissances mobilisaient leurs scientifiques, naquit une science nouvelle : la cybernétique. Cette discipline, qu’on qualifierait de transversale, vit le jour grâce aux travaux de Norbert Wiener, mathématicien au MIT.

En 1940, face à la menace des bombardiers allemands, Wiener s’attaqua à un problème technique d’une rare complexité : comment abattre des avions filant à 600km/h à des altitudes vertigineuses ? Par un prédicteur de trajectoire baptisé « AA predictor », conçu en collaboration avec Julian Bigelow.

L’intuition géniale de Wiener fut de considérer l’ensemble pilote-avion comme un système unique, dont les comportements obéissaient à certaines lois statistiques prévisibles. Cette approche rompait radicalement avec la vision mécaniste traditionnelle. Pour concrétiser cette idée, Wiener puisa dans trois technologies naissantes : les radars, les servomécanismes et les calculateurs analogiques.

Mais l’apport de Wiener dépassa largement le cadre militaire initial. De ces travaux naquit une réflexion essentielle sur les mécanismes de contrôle et de communication, tant dans les systèmes artificiels que naturels. Le terme « cybernétique », du grec kubernêtikê (art du pilotage), fut choisi pour traduire cette vision unificatrice.

Au cœur de la pensée cybernétique se trouvent quelques notions fondatrices : la rétroaction, l’information comme grandeur mesurable, et les systèmes autorégulés. Wiener postula qu’un système cybernétique, qu’il soit vivant ou artificiel, doit nécessairement posséder un modèle interne de son environnement pour interagir efficacement avec lui. Ce modèle guide l’extraction d’informations pertinentes via des capteurs, leur traitement selon des règles internes, puis l’action sur l’environnement via des effecteurs, le tout dans une boucle ininterrompue.

La parution de Cybernetics : Or Control and Communication in the Animal and the Machine en 1948 marqua l’avènement officiel de cette discipline. L’ouvrage suscita un enthousiasme immédiat dans les cercles scientifiques internationaux, comme en témoigne sa publication simultanée aux États-Unis et en France chez Hermann.

La cybernétique connut toutefois des destins divergents selon les pays. Aux États-Unis, sous l’égide du MIT et de chercheurs comme Jay Forrester, elle s’inscrivit résolument dans les sciences de l’ingénieur, donnant naissance à des applications concrètes comme le système SAGE de défense antiaérienne. En France, elle prit davantage la forme d’une réflexion théorique et philosophique, parfois au détriment de ses applications pratiques.

Les fameuses conférences Macy, tenues entre 1946 et 1953, jouèrent un rôle déterminant dans l’expansion de cette discipline. Ces rencontres extraordinaires rassemblèrent des esprits brillants venus d’horizons variés : mathématiciens, ingénieurs, neurologues, psychologues et anthropologues s’y côtoyaient pour explorer les ramifications multiples de la pensée cybernétique.

L’après-guerre vit Wiener prendre ses distances avec la recherche militaire, horrifié par les destructions d’Hiroshima et Nagasaki. Il orienta ses travaux vers des applications civiles et médicales, voyant dans la cybernétique un outil de lutte contre l’entropie sociale.

L’informatique moderne porte l’empreinte indélébile de cette pensée. Les concepts de rétroaction, de traitement de l’information et de modélisation des systèmes complexes constituent désormais le socle conceptuel de nos systèmes numériques. L’attention que Wiener portait aux interfaces homme-machine trouve un écho frappant dans nos préoccupations actuelles.

La cybernétique a nourri plusieurs domaines adjacents : la théorie de l’information développée par Claude Shannon, la théorie des jeux formalisée par John von Neumann, et les premières réflexions sur l’intelligence artificielle. Ces courants parallèles ont progressivement construit l’édifice théorique sur lequel repose l’informatique du XXIe siècle.

Dans les années 1960-1970, les limites de la cybernétique devinrent manifestes. Sa prétention à fournir un cadre explicatif universel se heurta à la complexité irréductible de nombreux phénomènes naturels et sociaux. Ses ambitions totalisantes furent revues à la baisse, mais ses concepts fondamentaux gardèrent leur pertinence pour comprendre les systèmes d’information et de contrôle.

Dans notre monde numérique saturé d’informations, où les systèmes complexes s’imbriquent les uns dans les autres, les intuitions de Wiener gardent une étonnante fraîcheur. Si son champ d’application s’est précisé depuis, sa vision d’une science du contrôle et de la communication n’a rien perdu de sa force explicative. Les principes qu’il a dégagés continuent d’éclairer notre compréhension des systèmes informatiques et de leur interaction avec les utilisateurs humains, dans un dialogue incessant entre l’homme et la machine qu’il avait pressenti dès les années 1940.

Haut de page

Tambour magnétique

On peut le dire avec humilité et sans jugement : le monde informatique a connu d’étranges machines à ses débuts. Parmi elles, un cylindre tournant a dominé trois décennies d’évolution technologique. Gustav Tauschek, inventeur autrichien, créa en 1932 un objet qui allait changer la face du stockage de données : le tambour magnétique.

Un cylindre métallique enduisait sa surface d’une couche ferromagnétique captant les informations binaires. Tout autour du tambour, des têtes de lecture-écriture captaient et inscrivaient des données sous forme de minuscules points magnétisés. La rotation constante du cylindre donnait accès aux informations stockées, dans un ballet mécanique précis et régulier.

Les premières versions des années 1940 montraient déjà les limites techniques de l’époque. La densité d’enregistrement atteignait seulement 50 bits par pouce, avec une vingtaine de pistes par pouce. Le réglage demandait une finesse d’horloger, si bien que les techniciens ajustaient l’écart entre têtes et surface au millième de pouce près, grâce à des vis différentielles et un usinage de haute précision.

L’IBM 650, commercialisé dès 1954, incarna parfaitement cette technologie. Son tambour, fait d’un alliage cobalt-nickel, mesurait 4 pouces de diamètre pour 14 pouces de longueur. Il tournait à la vitesse folle de 12 500 tours par minute sur des roulements à billes ultra-précis. Sa densité d’enregistrement atteignait 50 points magnétiques par pouce, pulsant à 128 kHz. L’organisation des données suivait une logique particulière : stockage parallèle au niveau du bit dans chaque chiffre, mais sériel pour les chiffres d’un même mot. Cinquante mots s’inscrivaient sur une circonférence du tambour, chacun contenant dix chiffres décimaux et un signe. Le système codait le signe moins par le chiffre 8, et le signe plus par le chiffre 9. Un espace équivalent à un chiffre séparait chaque mot, et cinq pistes parallèles encodaient chaque valeur.

David Macklin, programmeur chez Republic Aviation en 1957, raconte les contraintes posées par cette architecture. Les développeurs devaient tenir compte de la position physique réelle des données sur le tambour pour optimiser les temps d’accès. Avec ses 2 000 positions adressables réparties sur des pistes parallèles, la machine imposait une gymnastique intellectuelle constante. Le programmeur calculait l’emplacement de l’instruction suivante ou laissait l’assembleur SOAP s’en charger. En moyenne, trois ou quatre exécutions par tour complétaient le travail, selon les positions précédentes des données.

La technologie évolua significativement avec l’invention du palier hydrodynamique. Cette avancée, mise au point par IBM pour l’ordinateur SAGE de défense aérienne, permit d’atteindre des densités comparables aux bandes magnétiques sans recourir aux ajustements mécaniques complexes d’antan.

L’héritage du tambour magnétique survit dans certains systèmes UNIX modernes, où /dev/drum désigne le périphérique virtuel de swap. Ce nom vient directement de l’utilisation historique du tambour comme support de pagination mémoire.

L’arrivée des mémoires à tores magnétiques sonna le déclin progressif du tambour comme mémoire principale. Toutefois, ces cylindres tournants restèrent utilisés comme extensions mémoire jusque dans les années 1960, grâce à leur fiabilité et leur coût modéré comparé aux alternatives contemporaines.

Le cœur électronique du tambour magnétique battait au rythme d’environ 2 000 tubes, principalement des modèles 5955, 6211, 12AY7, 6AL5, 2D21 et 5687. Les types 6211 et 5965 s’apparentaient au 12AV7 mais répondaient aux tests d’acceptation spécifiques d’IBM. Près de 3 600 diodes à cristal complétaient les circuits logiques. L’alimentation électrique engloutissait 16 à 18 KVA en 208V, 60 cycles, monophasé. Des redresseurs au sélénium fournissaient le courant continu, évitant le recours à une régulation électronique complexe.

Au-delà du simple stockage, le tambour magnétique façonna la conception des premiers ordinateurs et la méthode d’écriture des programmes. Les développeurs plongeaient dans la réalité physique du stockage pour optimiser leurs codes, créant une symbiose matériel-logiciel caractéristique du XXe siècle. Ses limites en termes d’accès et de capacité stimulèrent la recherche d’alternatives. Ces travaux aboutirent aux disques magnétiques, plus rapides et plus volumineux. Le RAMAC d’IBM, premier disque dur commercialisé en 1956, marqua le début de la fin pour le tambour magnétique comme dispositif de stockage principal.

Haut de page

Théorie de l’information de Claude Shannon

Il est difficile d’imaginer notre univers numérique sans les percées théoriques de Claude Shannon, cet américain à l’esprit brillant. Dans son texte fondateur de 1948, A Mathematical Theory of Communication, Shannon énonce les bases mathématiques qui sous-tendent aujourd’hui toutes nos communications numériques.

L’histoire commence aux Bell Labs d’AT&T dans les années 1940. Le téléphone et la radio n’y sont plus des curiosités mais des technologies en pleine maturation. Pourtant, ces systèmes manquent d’un cadre théorique solide. Shannon s’attaque à ce vide conceptuel. Son génie réside dans l’intuition d’aborder l’information comme une grandeur mathématique. Il invente le concept lumineux d’entropie informationnelle, mesure qui quantifie l’incertitude d’un message. Au lieu de rester dans le flou, Shannon traduit l’information en équations et formules mathématiques. Il démontre que plus l’entropie monte, plus le message contient d’informations. Voilà l’idée révélatrice qui transforme notre vision du monde.

Son théorème du codage de canal constitue une autre avancée décisive. Il prouve qu’il est possible de transmettre des informations sur un canal bruité avec une probabilité d’erreur presque nulle. La seule condition est de ne pas dépasser la capacité du canal. Cette découverte éclaire d’un jour nouveau les limites théoriques de nos systèmes de communication.

Les concepts de Shannon ont trouvé des applications concrètes dès les premiers temps de l’informatique. Ses travaux ont guidé la création de codes correcteurs d’erreurs robustes. Aucun système de stockage ou de transmission moderne ne fonctionnerait sans eux. Du CD au Wi-Fi, en passant par les communications satellitaires, l’empreinte de Shannon est visible partout.

La compression de données doit tout autant à ce mathématicien visionnaire. Les algorithmes Huffman et Lempel-Ziv, qui vous permettent d’envoyer des photos ou de stocker des films, tirent leurs principes de base des travaux de Shannon. Sans lui, nos disques durs seraient 10 fois plus gros et nos connexions internet 10 fois plus lentes.

Mais l’influence de Shannon ne s’arrête pas aux frontières de l’informatique. Sa théorie a débordé dans de multiples disciplines. En psychologie, elle a inspiré des modèles sur le traitement cérébral de l’information. Les biologistes l’utilisent pour décoder l’ADN et comprendre la transmission génétique. Les économistes y ont puisé des outils pour modéliser les marchés financiers, la physique quantique s’étant approprié certains concepts « shannoniens ».

Avec le temps, sa théorie s’est ramifiée. La théorie de l’information quantique explore les propriétés inédites des systèmes quantiques. L’information algorithmique étudie les limites fondamentales du calcul et de la complexité. Ces extensions témoignent de la robustesse des idées originales de Shannon.

Plus de 75 ans après sa publication initiale, cette théorie reste une étoile polaire pour l’informatique et les télécommunications du XXIe siècle. Elle guide encore les chercheurs dans des domaines d’avant-garde comme l’apprentissage automatique ou les sciences des données. Qui aurait cru qu’un article publié lorsque les ordinateurs occupaient des salles entières continuerait à éclairer l’ère des puces nanométriques ?

Quand vous envoyez un message qui traverse des milliers de kilomètres sans erreur, quand vous compressez un fichier pour l’envoyer par courriel, quand vous regardez un film en streaming sans interruption, vous bénéficiez directement de ses découvertes. Si nos données voyagent à travers le temps et l’espace sans se dégrader, c’est grâce à ses équations. Les mathématiques pures finissent toujours par trouver des applications pratiques, parfois bien au-delà de ce qu’imaginaient leurs créateurs.

Haut de page

Short Code

Le Short Code naquit dans un monde où la programmation s’apparentait davantage à de l’ingénierie électrique qu’à l’écriture de code telle qu’on la conçoit maintenant. En cette fin des années 1940, l’informatique balbutiait avec des machines monumentales remplissant des salles entières pour une puissance de calcul désormais ridicule.

L’histoire débute dans les laboratoires de l’école d’ingénieurs Moore à l’université de Pennsylvanie. C’est là que John Mauchly, physicien reconverti à l’électronique, travailla dès 1941 sur un projet militaire visant à calculer des tables balistiques. Face aux limites des calculateurs, il imagina une machine entièrement électronique : l’ENIAC.

Cette machine colossale, mise en service en 1946, exécutait 5 000 additions par seconde – un exploit technique sans précédent. L’ENIAC souffrait toutefois d’un défaut : l’absence de programme enregistré. Chaque calcul nécessitait de modifier manuellement les connexions des circuits, un travail fastidieux qui pouvait prendre plusieurs jours.

Pour dépasser cette contrainte, Mauchly et son collaborateur J. Presper Eckert conçurent dès 1944 l’EDVAC, intégrant le concept de programme stocké en mémoire. Leur départ de l’université en 1946, suite à des désaccords sur la propriété intellectuelle, retarda cependant le projet qui n’aboutit qu’en 1951. Mauchly proposa alors, en juillet 1949, un langage plus accessible que le code machine : le Short Code, initialement nommé Brief Code.

Le Short Code se démarquait par sa simplicité conceptuelle. Plutôt que d’écrire directement en binaire, les programmeurs utilisaient des expressions mathématiques. Le langage supportait les nombres à virgule flottante, les variables, les sauts conditionnels et l’appel à des sous-routines stockées séparément. Le manuel de l’UNIVAC illustrait cette syntaxe novatrice par des exemples comme :

00 IXABC            I est mis à la valeur X+(A*B*C)
01 BVII             Aller à l’instruction 11 si B est positif
02 HRDW             Imprimer les valeurs de R, D et W

Cette approche, bien que rudimentaire selon nos standards actuels, représentait une rupture avec les méthodes antérieures. Les programmes restaient néanmoins complexes et devaient être traduits manuellement en langage machine – le compilateur n’existait pas encore. Les tests montrèrent que le code écrit en Short Code s’exécutait environ 50 fois plus lentement qu’un programme équivalent en langage machine, suscitant le scepticisme de nombreux spécialistes. Malgré ces limites, le Short Code a marqué une étape décisive. Pour la première fois, l’algorithme prenait forme indépendamment de la machine, permettant l’émergence des langages plus évolués comme Fortran (1957) ou Algol (1958). Les concepts qu’il introduisit – expressions mathématiques, variables, branchements, sous-programmes – devinrent les fondements de la programmation moderne.

L’œuvre de Mauchly et Eckert ne se limita pas au Short Code. Après l’ENIAC et l’EDVAC, ils créèrent le BINAC (Binary Automatic Computer, 1949), premier ordinateur à programme enregistré opérationnel, puis l’UNIVAC I (1951), premier ordinateur commercial de l’histoire. William Schmitt développa un prototype de Short Code sur le BINAC, ensuite adapté à l’UNIVAC I, et enfin à l’UNIVAC II. En fondant l’Eckert-Mauchly Computer Corporation dès 1946, ils furent les premiers à tenter de commercialiser ces machines extraordinaires, dont l’utilité restait mystérieuse pour le grand public.

Le Short Code, en libérant partiellement les développeurs de la complexité matérielle, contribua à démocratiser la programmation et accéléra l’essor de l’industrie informatique. Soixante-dix ans après les travaux de Mauchly, la quête de langages expressifs, sûrs et performants, comme Rust par exemple, demeure au cœur des préoccupations des informaticiens du XXIe siècle.

Haut de page

EDSAC

Au lendemain de la Seconde Guerre mondiale, alors que l’Europe pansait ses plaies, un projet prenait forme dans les laboratoires de l’Université de Cambridge. Maurice Wilkes et son équipe y concevaient une machine qui marquerait à jamais l’histoire du calcul automatique : l’EDSAC.

Cette calculatrice automatique à stockage à ligne de délai, construite entre 1947 et 1949, ne ressemblait en rien aux ordinateurs que nous connaissons. Volumineuse, bruyante, gourmande en électricité, l’EDSAC incarnait la première application pratique des théories de von Neumann sur l’architecture des ordinateurs, un cadre conceptuel qui régit encore nos machines actuelles.

Dans le contexte britannique d’après-guerre, où les ressources manquaient cruellement, bâtir un tel engin relevait de la gageure. Le projet s’inscrivait pourtant dans une tradition riche, avec les travaux de déchiffrement à Bletchley Park et l’ACE de Turing au National Physical Laboratory. La singularité de l’EDSAC résidait dans sa vocation généraliste qui, contrairement à ses prédécesseurs dédiés à des calculs spécifiques, se voulait adaptable à tous types de problèmes mathématiques.

Sa mémoire constituait une prouesse technique fascinante. Imaginez des tubes remplis de mercure où des impulsions ultrasonores se propagent, représentant par leur présence ou leur absence les fameux 0 et 1 du langage binaire. Cette « mémoire à ligne de délai » stockait 1024 mots de 17 bits chacun. L’équipe avait aussi conçu des versions miniatures de ces lignes pour les registres de l’unité arithmétique, une solution aussi ingénieuse qu’élégante malgré ses inconvénients pratiques.

L’unité de contrôle microprogrammée, autre innovation majeure, séparait physiquement le décodage des instructions de leur exécution. Cette architecture, codée sur 17 bits avec un format mono-adresse, incluait des sauts conditionnels, un multiplicateur câblé et des opérations de décalage. Les nombres y étaient représentés avec un bit de signe et une virgule fixe, pour manipuler soit des entiers courts, soit des nombres à précision quasi-double en utilisant deux mots mémoire.

En mai 1949, l’EDSAC effectue ses premières démonstrations publiques, devenant ainsi le premier ordinateur opérationnel basé sur l’architecture de von Neumann. Avec ses modestes 650 instructions par seconde et ses 2 kilo-octets de mémoire (un million de fois moins que nos téléphones actuels), la machine trouvait sa place dans la recherche scientifique de Cambridge.

Les années 1950 virent l’EDSAC au cœur d’avancées scientifiques. Rosalind Franklin l’utilisa pour ses travaux sur la structure de l’ADN, tandis que des chercheurs en astronomie, économie ou linguistique se formaient à son usage. Une véritable communauté informatique naissait autour de cette machine pionnière.

Sur le plan logiciel, David Wheeler créa en 1951 le premier assembleur sur l’EDSAC, remplaçant les fastidieux codes binaires par des instructions mnémoniques. Quelques années plus tard, le langage Autocode d’Alick Glennie préfigurait les langages de haut niveau comme Fortran ou Algol. Des bibliothèques de sous-programmes réutilisables apparurent, initiant les méthodes de programmation structurée du futur.

L’EDSAC a inspiré d’autres universités britanniques pour leurs propres machines, à savoir l’EDSAC 2 à Cambridge, le MOSAIC à Manchester. Outre-Atlantique, l’Université d’Illinois développa l’ILLIAC, directement dérivé des plans partagés généreusement par Wilkes et son équipe.

Le démantèlement de l’EDSAC en 1958, après une décennie de loyaux services, marqua la fin d’une époque mais non celle de son héritage. Sans le savoir, les utilisateurs de l’EDSAC manipulaient déjà les concepts fondamentaux que nous utilisons quotidiennement : programme stocké en mémoire, architecture séquentielle, jeu d’instructions et sous-programmes.

Haut de page

Application Programming Interface

Les Application Programming Interfaces, connues sous l’acronyme API, ont modelé notre environnement numérique. Leur histoire débute dans l’Angleterre d’après-guerre, au sein des laboratoires de Cambridge. Maurice Wilkes et David Wheeler, deux pionniers méconnus, élaborèrent pour l’ordinateur EDSAC une bibliothèque modulaire de programmes. Ces chercheurs britanniques rangèrent leurs créations sur bandes perforées dans une simple armoire métallique, accompagnées d’un catalogue détaillant leur usage. Ce modeste dispositif constitue la première trace documentée d’une API.

Wilkes et Wheeler formalisèrent leurs travaux en 1951 dans l’ouvrage The Preparation of Programs for an Electronic Digital Computer. Ce livre marque la naissance conceptuelle des interfaces standardisées entre composants informatiques, bien avant leur dénomination actuelle.

Le terme « API » fit sa première apparition scientifique en 1968 dans les travaux d’Ira Cotton et Frank Greatorex. Leur article « Data structures and techniques for remote computer graphics », présenté lors d’une conférence de l’AFIPS, décrivait des moyens d’abstraire les spécificités des périphériques graphiques. Les programmeurs Fortran utilisaient alors des appels de sous-programmes pour s’affranchir des contraintes matérielles.

Les années 1970 virent l’extension du concept aux systèmes de données. En 1974, CJ Date publia « The Relational and Network Approaches : Comparison of the Application Programming Interface », intégrant ces interfaces dans l’architecture ANSI/SPARC des systèmes de gestion de bases de données. Cette contribution scientifique élargit considérablement leur champ d’application.

L’informatique réseau des années 1980 transforma les besoins des développeurs, désormais confrontés à l’accès aux bibliothèques sur différentes machines. Les API évoluèrent pour prendre en charge les appels de procédure à distance. Cette période vit naître des interfaces favorisant la compatibilité entre plateformes disparates.

La révolution Internet des années 1990 poussa les API vers l’échange de données entre applications via des protocoles normalisés. Carl Malamud proposa en 1990 une définition qui traversa les époques : un ensemble cohérent de services mis à disposition d’un programmeur pour accomplir des tâches spécifiques. Cette décennie prépara le terrain aux services web émergents.

L’an 2000 fut marquant avec la thèse doctorale de Roy Fielding, Architectural Styles and the Design of Network-based Software Architectures. Ce travail établit REST comme protocole de référence pour les communications entre systèmes connectés. Toujours en 2000, Salesforce présenta la première API moderne lors de la conférence IDG Demo, inaugurant ainsi une nouvelle ère technologique.

Durant cette décennie, les services en ligne se multiplièrent. Salesforce, eBay et Amazon innovèrent en exploitant HTTP pour diffuser des données lisibles par machine, formatées en JSON ou XML, via des API web. Du petit acteur jusqu’aux géants industriels, les entreprises adoptèrent massivement le modèle fondé sur le cloud et les API. Amazon joua un rôle précurseur en exigeant que toutes les ressources numériques partagées disposent d’une API.

À partir de 2010, l’explosion des réseaux sociaux catalysa l’évolution des API. Les organisations cherchaient des solutions économiques pour créer des applications adaptables. Ces interfaces simplifiaient l’intégration avec des services externes comme les processeurs de paiement ou les systèmes de relation client. L’arrivée de Kubernetes vers 2015 accéléra la transition vers des architectures distribuées composées de microservices autonomes, chacun doté de sa propre API.

La crise sanitaire de 2020 intensifia notre dépendance aux services web, démultipliant l’usage des interfaces de programmation. Leur rôle s’étendit aux objets connectés et à la création d’intelligences artificielles. Les organisations déployèrent leurs applications entre différents fournisseurs cloud, rendant les API aux centre de la communication entre les services.

Actuellement, l’évolution se concentre sur deux axes majeurs. La sécurité est prioritaire face aux vulnérabilités croissantes des systèmes distribués. Le principe de zero trust s’impose, vérifiant systématiquement l’authentification et les autorisations, y compris pour les requêtes internes. Les mécanismes de limitation de débit protègent contre les attaques par déni de service, tandis que l’observabilité détecte et résout les incidents.

La gouvernance des API établit en parallèle des règles pour leur conception, déploiement et maintenance au sein des organisations. L’objectif est de garantir leur cohérence, sécurité et évolutivité en harmonie avec la stratégie d’entreprise.

Les API ont bouleversé la façon dont les développeurs créent des applications, avec des abstractions toujours plus sophistiquées. Ce qui commença comme un simple échange entre deux ordinateurs dans un laboratoire universitaire britannique forme aujourd’hui l’épine dorsale des systèmes numériques du XXIe siècle, particulièrement dans l’univers distribué du cloud computing.

Haut de page

Whirlwind I

Au cœur du MIT, le projet Whirlwind I démarra en 1944, sous l’impulsion de l’US Navy. À l’origine, l’ambition était modeste : fabriquer un simulateur de vol pour l’entraînement des pilotes. Jay Forrester, chercheur au laboratoire de servomécanique, prit les rênes du projet l’année suivante. L’idée initiale d’une machine analogique fut vite écartée au profit d’une approche numérique, que la Navy valida en 1946.

Cette décision transforma radicalement la portée du projet. Au lieu d’un simple simulateur, le MIT s’engageait dans la création d’un calculateur numérique universel, capable de répondre aux exigences du simulateur tout en ouvrant des perspectives vers d’autres applications scientifiques. La machine centrale devint pleinement opérationnelle en 1951.

La vocation première du Whirlwind I marqua sa conception. Dès le début, l’équipe le pensa comme un système temps réel. Cette orientation nécessitait une mémoire ultrarapide. La solution retenue fut une mémoire à tubes cathodiques, la plus véloce disponible à ce moment. Un rapport de 1952 notait toutefois que cette mémoire restait « le facteur le plus important affectant la fiabilité du système Whirlwind I ».

Pour répondre à ce problème, l’équipe élabora des procédures rigoureuses de test systématique, visant à repérer les défaillances matérielles avant qu’elles ne compromettent les calculs. En parallèle, l’usage militaire grandissant de la machine exigeait une fiabilité sans faille. Dans le climat tendu de guerre froide, le Whirlwind, dont le financement passa de l’Office of Naval Research à l’US Air Force, s’intégra au dispositif de défense américain.

Sa version de production, l’AN/FSQ-7, devint un élément du système SAGE de surveillance aérienne. Insatisfaits des limites des tubes cathodiques, les chercheurs cherchèrent des alternatives. Vers la fin des années 1940, Jay Forrester et d’autres scientifiques explorèrent l’utilisation de tores magnétiques. William Papian, membre de l’équipe, mentionna dans ses notes les travaux de Harvard sur les « lignes à retard magnétiques statiques ».

L’été 1953 vit l’installation d’une mémoire à tores sur le Whirlwind. Un rapport du projet soulignait deux avantages : « la mémoire à tores magnétiques a deux grands avantages : (1) une plus grande fiabilité avec en conséquence une réduction du temps de maintenance consacré à la mémoire ; (2) un temps d’accès plus court (le temps d’accès des tores est de 9 microsecondes contre environ 25 microsecondes pour les tubes), ce qui augmente la vitesse de fonctionnement de l’ordinateur ». Cette innovation fit du Whirlwind le premier grand calculateur doté de cette technologie, qui domina le marché jusqu’aux années 1970.

L’architecture du Whirlwind I reposait sur un modèle à programme enregistré avec des mots de 16 bits. Sa puissance atteignait 20 000 instructions par seconde, avec une mémoire vive de 2048 mots. Il utilisait des instructions à adresse unique et des nombres en virgule fixe en complément à 9. Sa structure se divisait en trois parties : une unité de stockage avec 32 tubes électrostatiques, un élément arithmétique pour les calculs, et un organe de contrôle orchestrant l’ensemble. Les composants électroniques reposaient principalement sur des bascules pour mémoriser les états binaires et des tubes de porte pour diriger les impulsions.

La préoccupation centrale était la vitesse. L’objectif initial de 50 000 opérations par seconde ne fut pas atteint, mais les 20 000 opérations effectives représentaient déjà une prouesse. Les temps d’exécution – 3 microsecondes pour une addition, 16 pour une multiplication – surpassaient largement ceux des machines contemporaines. Le jeu d’instructions, réduit à une trentaine de commandes, incluait des sauts conditionnels rendant la machine auto-modifiable selon les résultats. Des instructions spécialisées, comme les transformations automatiques de coordonnées, accéléraient encore les calculs.

L’interface homme-machine du Whirlwind I était audacieuse. Au-delà du lecteur photoélectrique de bande perforée et des machines à écrire classiques, la machine disposait d’écrans cathodiques – alphanumériques ou vectoriels – avec capture photographique des résultats. Ce dispositif avancé donnait aux programmeurs un retour visuel immédiat sur leurs travaux.

Le cycle de programmation préfigurait celui que nous connaissons aujourd’hui. Le programmeur découpait d’abord son problème en étapes élémentaires, les traduisait en instructions, que des opérateurs saisissaient via un équipement spécial. Ce code était converti en langage intermédiaire, puis en binaire, avant d’être stocké sur bande perforée ou magnétique. Le contrôleur chargeait ensuite les instructions séquentiellement depuis la mémoire, les décodait et envoyait les signaux nécessaires à leur exécution.

Les applications du Whirlwind I touchèrent de nombreux domaines : économie, magnétisme, radar, conception mécanique, traitement du signal. Mais son héritage le plus durable est sans doute ses avancées en informatique temps réel appliquée au contrôle industriel et aérien. Cette machine extraordinaire contribué à l’amélioration de l’architecture des ordinateurs et accéléré le développement de l’informatique, tant matérielle que logicielle.

Si ce contenu vous a plu, vous pouvez soutenir ce projet en faisant un don ou en commandant l'édition papier sur Lulu ou Amazon. Tout le contenu reste librement accessible sous licence CC BY-SA 4.0.