EPOCH
EPOCH © 2025 par Stéphane Fosse - Ce livre est publié selon les termes de la licence CC BY-SA 4.0
Chapitre 2
1930
Les prémices du calcul automatique
Un monde en transition s’éveille à la mécanisation du calcul. Le terreau des années 1930 se nourrit d’un riche héritage intellectuel : le système binaire de Leibniz (1703), la carte perforée de Jacquard (1801), et l’algèbre de Boole (1854). Ces concepts, restés en sommeil durant des décennies, s’apprêtent à bouleverser notre rapport aux mathématiques.
Le fracas du krach boursier de 1929 résonne encore quand s’ouvre cette décennie charnière. L’administration américaine s’enlise dans ses propres chiffres. Le recensement de 1930 illustre ce bourbier bureaucratique où deux années entières furent nécessaires pour dépouiller manuellement les formulaires. Une éternité.
Face à la Grande Dépression, Roosevelt déploie son New Deal. L’État s’étend, les programmes sociaux naissent. Chaque citoyen devient une fiche, chaque allocation un chiffre à consigner. Les rouages administratifs grincent sous la charge.
Dans le même temps, l’œil du cyclone totalitaire s’abat sur l’Europe. L’Allemagne nazie, avec sa froide obsession classificatoire, utilise les tabulatrices de la Dehomag, filiale d’IBM. Des existences réduites à des trous dans du carton. La bureaucratie de l’horreur prend forme.
À la fin de la décennie 1930, l’air se charge de tensions. Les services de renseignement tentent de percer le mystère d’Enigma. Cette machine allemande de chiffrement, avec ses rotors tournants, déjoue les analyses. La cryptographie accouchera des premiers calculateurs électroniques, un enjeu vital.
La radio transforme l’information. Les ondes transportent désormais voix et musique à travers continents et océans. Dans les studios, les techniciens manipulent un équipement toujours plus sophistiqué. Pourtant, si l’information voyage à la vitesse de la lumière, son traitement reste archaïque.
Les comptoirs des entreprises s’équipent. Le tac-tac caractéristique des machines à calculer mécaniques rythme la journée des employés. IBM, Burroughs et NCR prospèrent en vendant ces précieux auxiliaires du calcul commercial.
Au cœur de cette effervescence, quelques éclairs de génie illuminent l’horizon scientifique. À Cambridge, Alan Turing publie en 1936 « On Computable Numbers ». Ce texte fondateur pose la question des limites théoriques du calcul automatique. Sa machine abstraite universelle établit le concept de l’ordinateur moderne, sans que personne ne mesure sa portée. De son côté au MIT, Claude Shannon, étudiant brillant de 21 ans, relie dans son mémoire de master l’algèbre booléenne aux circuits électriques. Ce mariage fécond engendrera l’électronique numérique du XXe siècle.
L’usine s’automatise progressivement. Les chaînes de montage de Ford ne représentent qu’une première étape. Les industriels recherchent des systèmes capables d’exécuter et de réguler les processus. Les cartes perforées, héritières du métier Jacquard, s’imposent comme support d’instructions.
Tous les domaines scientifiques se heurtent aux limites du calcul manuel. Les physiciens quantiques, les astronomes, les météorologues : tous jonglent avec des équations complexes qui saturent la capacité humaine de traitement. Le crayon et le papier ne suffisent plus.
L’aéronautique exige une précision diabolique. Une erreur minime dans les calculs d’aérodynamisme provoque une catastrophe. Au laboratoire balistique d’Aberdeen, des mathématiciennes, appelées « computers », calculent inlassablement les trajectoires pour l’artillerie. Travail minutieux dont dépendent des vies humaines.
Une génération nouvelle émerge des universités. Ces jeunes scientifiques conçoivent le calcul différemment : non plus comme une série d’opérations isolées, mais comme un processus, un flux logique. Ils pensent en algorithmes avant que le mot ne devienne courant. Les Bell Labs d’AT&T forment un creuset d’innovation sans pareil. Dans ses couloirs se croisent mathématiciens, physiciens, linguistes et ingénieurs. Cette interdisciplinarité féconde nourrit l’informatique balbutiante.
La course à la mécanisation du calcul s’accélère. Le relais électromagnétique remplace graduellement le levier mécanique. Plus rapide, plus fiable, il constitue une première forme de bouleversement électronique. Les brevets s’amoncellent dans les bureaux des offices nationaux.
Dans cette fièvre d’innovation, quelques standards commencent à s’imposer, comme la carte perforée d’IBM avec ses 80 colonnes et 12 lignes. Ce rectangle de carton s’affirme comme le support universel de l’information codée, l’ancêtre direct de nos fichiers numériques.
Quand les troupes hitlériennes envahissent la Pologne en septembre 1939, nul ne soupçonne que le conflit mondial servira d’accélérateur technologique à l’informatique. L’urgence militaire transformera bientôt les calculateurs mécaniques en géants électroniques.
Ces années 1930, prises en étau entre la Grande Dépression et la Seconde Guerre mondiale, portent en elles les semences de notre ère numérique. Les concepts théoriques attendent leur incarnation matérielle. La terre est prête, la tempête gronde. Paradoxalement, dans ce monde au bord du gouffre germent les racines de la révolution informatique.
L’analyseur différentiel de Vannevar Bush
Plus de deux siècles après les réflexions de Gottfried Wilhelm Leibnitz sur la mécanisation du raisonnement mathématique, un rêve longtemps resté dans le domaine du fantasme prit forme dans les laboratoires du Massachusetts Institute of Technology (MIT). Un homme, Vannevar Bush, né en 1890 à Everett dans le Massachusetts, s’attela à cette tâche colossale durant l’entre-deux-guerres.
Il a créé l’analyseur différentiel, achevé en 1931. Une machine issue d’un travail collectif avec Frank D. Gage, Harold L. Hazen, King E. Gould et Samuel H. Caldwell. L’idée n’était d’ailleurs pas totalement nouvelle. Sir William Thomson avait suggéré cinquante ans plus tôt que les intégrateurs conçus par son frère pourraient, s’ils étaient reliés entre eux, résoudre des équations différentielles. Mais les contraintes techniques de l’époque victorienne rendaient ce rêve inaccessible.
Bush réussit là où d’autres avaient échoué. Son analyseur différentiel résolvait des équations différentielles du sixième ordre ou trois équations du second ordre simultanément, une véritable prouesse technique. La machine reposait sur des amplificateurs de couple qui supportaient des charges mécaniques considérables, un système de tiges de transmission (bus shafts) qui reliait les différentes unités, et des dimensions impressionnantes pour maximiser la précision des tracés. Un concept audacieux.
Le cœur de cette invention visait trois qualités rarement réunies : flexibilité extrême, robustesse mécanique et précision acceptable. Dans des conditions normales, la machine atteignait une précision d’un millième pour chaque unité individuelle. Les erreurs momentanées se compensaient naturellement lors du processus d’intégration, rappelant le comportement d’un planimètre dont les écarts finissent par s’équilibrer.
Pour utiliser cette machine, il fallait quelques heures pour la configurer après avoir réalisé les tracés nécessaires et déterminé le schéma de connexion. La résolution proprement dite prenait généralement une dizaine de minutes pour chaque ensemble de conditions aux limites. Les opérateurs devaient acquérir une certaine expérience, mais gagnaient en retour une compréhension intime des équations différentielles qu’ils manipulaient.
Vannevar Bush et ses collaborateurs durent surmonter d’importants obstacles techniques. Le jeu mécanique et le glissement des intégrateurs étaient complexes. Ils développèrent un système ingénieux appelé lashlock pour éliminer le jeu dans les vis sans fin, et conçurent des amplificateurs de couple à deux étages produisant des rapports de couple très élevés avec un couple d’entrée minimal.
Pour valider la fiabilité de leur invention, ils menèrent quarante essais rigoureux sur une unité d’intégration complète. Ces tests, effectués avec des charges variant de zéro à un pied-livre de couple de sortie, à différentes positions et dans les deux sens de rotation, révélèrent un écart moyen de seulement 0,032 % par rapport à la constante de calibration. L’écart maximal, observé lors d’un essai unique, ne dépassait pas 0,12 %.
Cette machine marqua l’histoire du calcul scientifique. En se positionnant à mi-chemin entre les calculateurs mécaniques rudimentaires et les futurs ordinateurs électroniques, l’analyseur différentiel démontra qu’on pouvait mécaniser des calculs mathématiques complexes. Cette avancée ouvrit des perspectives inédites pour résoudre des problèmes ardus en physique et en ingénierie.
Le théorème d’incomplétude de Gödel
Kurt Gödel publia en 1931 un texte qui changea radicalement notre vision des mathématiques. Son article « Sur les propositions formellement indécidables des Principia Mathematica et des systèmes apparentés » mit en lumière une barrière infranchissable dans les systèmes formels mathématiques. Cette révélation, le fameux théorème d’incomplétude, allait plus tard transformer l’informatique théorique.
Les mathématiciens du début du XXe siècle rêvaient d’une discipline aux bases solides et inébranlables. David Hilbert incarnait cette quête avec son programme visant à prouver la cohérence totale des mathématiques par des méthodes formelles. Bertrand Russell et Alfred North Whitehead avaient écrit leurs Principia Mathematica entre 1910 et 1913, tentative ambitieuse de reconstruire toutes les mathématiques à partir d’axiomes logiques élémentaires. C’est dans ce monde intellectuel que Gödel posa une question dérangeante : ces systèmes formels ont-ils des limites intrinsèques ?
Sa démarche fut brillante. Il créa une correspondance entre énoncés mathématiques et nombres, baptisée numérotation de Gödel. Chaque symbole, formule et preuve se voyait attribuer un code numérique unique. Cette astuce transformait les propositions mathématiques en objets arithmétiques manipulables. À l’aide de ce système, Gödel façonna une proposition mathématique particulière qui, traduite en langage courant, affirme : « Je ne peux pas être prouvée dans ce système formel ». Cette construction évoque le paradoxe antique du menteur d’Euboulide (Ve siècle av. J.-C.), mais sans tomber dans la contradiction.
Le résultat fut dévastateur pour le programme de Hilbert : dans tout système formel cohérent capable de décrire l’arithmétique élémentaire, des vérités mathématiques existent qui ne sont ni démontrables ni réfutables dans ce système. Son second théorème enfonça le clou en prouvant qu’un système formel cohérent ne saurait démontrer sa propre cohérence. L’édifice de certitudes que cherchaient à bâtir les mathématiciens s’effondrait.
Cinq ans plus tard, Alan Turing, inspiré par ces travaux, développa le concept de machine universelle. La technique d’encodage numérique de Gödel lui montra comment représenter des programmes sous forme de nombres, idée qui sous-tend nos ordinateurs actuels. Turing établit l’existence du problème de l’arrêt, question informatique qu’aucun algorithme ne permet de résoudre systématiquement.
La théorie de la calculabilité naquit de ces découvertes et définit les frontières du calcul automatique. Les langages de programmation, leurs compilateurs et interpréteurs portent l’empreinte de ces résultats théoriques. Quand nous tentons de certifier formellement des programmes informatiques, nous nous heurtons aux limitations identifiées par Gödel.
Les chercheurs continuent d’explorer ces territoires complexes. La théorie de la complexité s’intéresse aux ressources nécessaires pour résoudre les problèmes décidables. La logique floue propose des chemins alternatifs face aux limites des systèmes classiques. Les outils d’aide à la démonstration mathématique intègrent ces contraintes dans leur conception.
Pour la représentation des connaissances, l’intelligence artificielle puise dans les techniques d’encodage gödéliennes. Les systèmes experts s’appuient sur ces fondements tout en reconnaissant les barrières inhérentes au raisonnement formel. Sur un plan philosophique, ces théorèmes nous interrogent sur la nature de la pensée, notamment sur l’existence d’une différence entre l’intuition mathématique humaine et les capacités des systèmes formels.
La cryptographie moderne s’inspire directement des méthodes de numérotation inventées par Gödel. La théorie des nombres, centrale dans ses preuves, constitue maintenant un pilier de la sécurité informatique. Les chercheurs qui travaillent sur les systèmes de types, la vérification de programmes ou les assistants de preuve naviguent dans un espace intellectuel dont Gödel a tracé les contours.
Presque cent ans après leur publication, les théorèmes d’incomplétude demeurent au cœur de l’informatique fondamentale. Ils nous rappellent l’existence de limites inhérentes aux systèmes formels et stimulent notre créativité pour concevoir des approches nouvelles.
La machine de Turing
Alan Mathison Turing, jeune mathématicien britannique de 24 ans tout juste sorti de King’s College, publie l’article scientifique On Computable Numbers, with an Application to the Entscheidungsproblem en 1936. Un bouleversement intellectuelle qui allait fonder l’informatique théorique.
Il y décrit une machine abstraite d’une étonnante simplicité : un ruban sans fin divisé en cases, une tête qui lit et écrit des symboles, un ensemble d’états et de règles dictant son comportement. Cette construction minimaliste cache une puissance extraordinaire : elle résout n’importe quel problème calculable mécaniquement.
Le génie de Turing ne réside pas tant dans la complexité de son modèle que dans sa façon de repenser le calcul. Il rompt avec les abstractions mathématiques traditionnelles et s’inspire du travail des calculateurs humains, ces personnes qui exécutaient des calculs à la main selon des procédures précises. Sa machine modélise le calcul comme une séquence d’actions élémentaires déterministes.
Cette nouvelle approche règle une question lancinante posée par David Hilbert en 1928, l’Entscheidungsproblem. Turing démontre l’inexistence d’une méthode universelle décidant si une formule mathématique donnée est démontrable. Sa conclusion rejoint celle d’Alonzo Church, obtenue indépendamment via le lambda-calcul. Mais Turing va plus loin : sa machine universelle, capable de simuler toute autre machine de Turing, esquisse l’idée d’ordinateur programmable qui marquera l’architecture des premiers calculateurs électroniques conçus par John von Neumann.
La Seconde Guerre mondiale transforme ces idées théoriques en enjeu vital. À Bletchley Park, Alan Turing met son intelligence au service du déchiffrement des communications allemandes. Il conçoit les « Bombes », machines électromécaniques automatisant la recherche des clés de chiffrement Enigma. Ces 211 machines décodent jusqu’à 3000 messages par jour. Cette contribution raccourcit le conflit d’environ deux ans selon le général Eisenhower.
La paix revenue, Turing poursuit ses recherches sur les machines pensantes, d’abord au National Physical Laboratory, ensuite à Manchester. Il invente le premier jeu d’échecs informatique et propose son fameux test : si un humain ne distingue pas les réponses d’une machine de celles d’un autre humain lors d’une conversation, alors la machine manifeste une forme d’intelligence. Cette idée reste une référence dans la recherche en intelligence artificielle.
Mais le destin frappe brutalement. En 1952, la police arrête Turing pour homosexualité, crime à l’époque au Royaume-Uni. Condamné à un traitement hormonal censé « guérir » son orientation sexuelle, il subit des effets dévastateurs sur sa santé. Privé d’habilitation sécuritaire et interdit de voyage aux États-Unis, Turing meurt en 1954, vraisemblablement par suicide. Il avait 41 ans.
Sa reconnaissance publique attendra longtemps, ses travaux à Bletchley Park restant classifiés. Les années 1970 commencent à lever le voile sur ses contributions. En 2009, Gordon Brown, Premier ministre britannique, présente des excuses officielles pour le traitement subi par Turing. La reine Elizabeth II lui accorde un pardon posthume en 2013. Quatre ans plus tard, la loi « Turing » étend ce pardon à tous les hommes condamnés pour homosexualité.
L’héritage scientifique de Turing rayonne dans notre monde numérique, car sa machine théorique est l’étalon pour comprendre les limites du calcul. Un système est dit « Turing-complet » s’il égale sa puissance de calcul, critère devenu standard pour évaluer langages de programmation et architectures informatiques.
Ses intuitions sur l’intelligence artificielle nourrissent encore la recherche actuelle. La Médaille Turing, plus haute distinction en informatique, porte son nom. En mathématiques, ses travaux sur la calculabilité et la décidabilité ont ouvert des champs entiers. Sa dernière recherche sur la morphogenèse, utilisant les mathématiques pour expliquer les motifs biologiques, témoigne de sa curiosité sans frontières.
Aujourd’hui, son portrait orne le billet de 50 livres depuis 2021. Son nom marque les universités, les instituts et les prix scientifiques. L’histoire de Turing raconte à la fois la naissance de l’informatique moderne et l’évolution des mentalités. Sa vie brisée et son œuvre visionnaire continuent d’inspirer mathématiciens, informaticiens et chercheurs en intelligence artificielle du XXIe siècle.
Tout calcul numérique contemporain porte son empreinte. Notre monde d’algorithmes, de données et d’intelligence artificielle découle directement de sa vision. La prochaine fois que vous utiliserez un ordinateur, souvenez-vous du jeune mathématicien qui, dans les années 1930, imaginait déjà notre avenir numérique.
L’ordinateur mécanique Z1
Berlin, 1936. Konrad Zuse, un jeune homme de 26 ans, s’active dans l’appartement de ses parents. Cet ingénieur civil vient de quitter son poste chez l’avionneur Henschel où il travaillait comme calculateur. Il a une idée fixe : construire une machine capable d’automatiser les calculs mathématiques fastidieux. Sans le savoir, il s’apprête à écrire une page importante de l’histoire des calculateurs.
La naïveté technique joue en sa faveur. Il ignore tout des cartes perforées d’IBM ou des conceptions de Charles Babbage du siècle précédent. Vierge de toute influence, il repense l’architecture des machines calculantes depuis le début. Son premier choix technique est le système binaire, au moment où toutes les machines existantes fonctionnent en décimal. Sa machine séparera la mémoire de l’unité arithmétique, manipulera des nombres en virgule flottante et stockera 64 valeurs de 24 bits.
Le cœur du Z1 repose sur une invention surprenante. Plutôt que d’utiliser des engrenages classiques, Zuse fabrique des plaques métalliques qui coulissent dans un cadre. Un mouvement dans une direction symbolise un 1, l’absence de mouvement représente un 0. Ces plaques, empilées et connectées par des tiges verticales, forment des portes logiques purement mécaniques. L’unité arithmétique se divise en deux sections distinctes : l’une traite les exposants, l’autre les mantisses des nombres à virgule flottante. Quatre phases de calcul rythment l’exécution des micro-instructions, chacune associée à une direction cardinale.
Pour programmer son invention, Zuse réutilise de la pellicule de cinéma 35 mm. Il perfore ce film selon le code précis de huit trous par ligne d’instruction, dont deux pour l’opération et six pour l’adressage mémoire. Ses huit instructions couvrent les opérations arithmétiques élémentaires, les transferts mémoire, la saisie et l’affichage des résultats. Le Z1 sait aussi reconnaître des cas particuliers comme la valeur zéro (exposant -64) ou l’infini (exposant 63). Des circuits dédiés arrêtent la machine en cas d’opération invalide.
Cependant, la belle mécanique se heurte aux contraintes du réel. La coordination parfaite des milliers de pièces mobiles tourne au casse-tête. Terminé en 1938, le Z1 ne fonctionne jamais correctement. Les bombardements alliés de 1943 réduisent la machine en cendres, mais l’architecture survivra dans le Z3, version électromécanique à relais que Zuse construit en 1941.
Quarante ans plus tard, dans les années 1980, Konrad Zuse entame la reconstruction de son premier né pour le Deutsches Technikmuseum de Berlin. Cette réplique, achevée en 1989, profite des techniques de fabrication modernes : plus compacte, ses douze couches mécaniques contiennent environ 6 000 portes logiques. Malgré ces raffinements, la machine conserve les caprices de l’original et nécessite une surveillance constante.
Le Z1 est étonnamment à l’origine de nos ordinateurs actuels : architecture séparant calcul et mémoire (plus tard nommée « architecture von Neumann »), représentation normalisée en virgule flottante, système binaire. Ces caractéristiques impressionnent davantage quand on sait que Zuse n’avait ni formation en électronique ni connaissances approfondies en logique formelle.
La rareté des matériaux dans l’Allemagne d’avant-guerre força Zuse à optimiser chaque composant. Cette approche minimaliste contraste avec les projets américains contemporains comme l’ENIAC ou le Mark I de Harvard, qui bénéficiaient de budgets considérables et d’équipes nombreuses.
Si le Z1 ne constitue pas un ordinateur universel au sens strict défini par Turing – il lui manque notamment les instructions de branchement conditionnel – il marque néanmoins une rupture dans l’évolution des machines calculantes. Son architecture binaire et sa conception modulaire restent les fondations de l’informatique moderne. Il reste une anomalie, l’œuvre presque solitaire d’un visionnaire qui, par son ignorance des conventions établies, réinventa l’art du calcul mécanique au XXe siècle.
Lambda-calcul
Quand Alonzo Church publie ses travaux sur le lambda-calcul dans les années 1930 à Princeton, il ne se doute probablement pas de l’impact monumental qu’aura sa création sur l’informatique future. Ce formalisme mathématique, d’apparence austère, cache une élégance qui fascine encore les chercheurs presque un siècle plus tard.
L’histoire commence véritablement avec une remarque de Frege en 1893 : toute fonction à plusieurs arguments se transforme en une suite de fonctions à un seul argument. Prenons une fonction d’addition : au lieu de calculer directement la somme de deux nombres, on construit d’abord une fonction qui attend un premier nombre, puis renvoie une autre fonction qui attend le second. Cette vision correspond étonnamment à la réalité physique des ordinateurs. Quand la machine charge un nombre en mémoire, elle est prête à l’associer à n’importe quelle autre valeur.
En 1924, Moses Schönfinkel découvre que deux fonctions élémentaires, K et S, suffisent à construire toutes les autres. Church reprend cette idée plus tard en créant une notation plus raffinée : l’application d’une fonction F à un argument A s’écrit simplement FA, les parenthèses n’apparaissant que lorsqu’elles sont nécessaires.
Les années 1930 voient fleurir des résultats majeurs. Church et Rosser prouvent en 1936 la confluence des réductions, une propriété mathématique fondamentale du lambda-calcul, qui énonce que le résultat final ne dépend pas de l’ordre des calculs intermédiaires. Cette année-là, Alan Turing établit un lien entre sa machine abstraite et le formalisme de Church, les deux approches calculent exactement les mêmes fonctions.
Le lambda-calcul réussit l’exploit de représenter les nombres naturels sans utiliser de chiffres. Un nombre n est aussi une fonction qui applique n fois une autre fonction à un argument. Cette représentation, qu’on nomme encodage de Church, rend possibles toutes les opérations arithmétiques. Les fonctions récursives, piliers de la programmation moderne, s’expriment grâce à un mécanisme appelé point fixe.
Church formule alors sa célèbre thèse : les fonctions calculables sont celles définissables dans son formalisme. Cette affirmation relie une notion intuitive à un concept mathématique précis et reste impossible à démontrer rigoureusement. Kleene la renforce en 1936 en prouvant l’équivalence entre les fonctions lambda-définissables et les fonctions récursives générales de Gödel.
L’empreinte du lambda-calcul sur l’informatique moderne s’avère profonde. John McCarthy s’en inspire directement pour créer LISP en 1958, ancêtre de toute une famille de langages fonctionnels comme Haskell ou ML. Ces langages héritent des concepts fondamentaux du formalisme de Church : fonctions comme valeurs premières, évaluation par réduction, systèmes de types sophistiqués.
Dans les années 1970, Dana Scott construit une sémantique mathématique rigoureuse pour le lambda-calcul. Ses travaux donnent naissance à la théorie des domaines, outil puissant pour comprendre et vérifier les langages de programmation.
L’influence du lambda-calcul touche aussi la conception des compilateurs. La représentation des programmes sous forme d’arbres plutôt que de séquences linéaires d’instructions, inspirée de la structure des termes lambda, optimise l’utilisation de la mémoire – technique toujours pertinente dans les compilateurs actuels. La théorie des types dépendants, extension du système de types simple du lambda-calcul original, sert désormais de fondement aux assistants de preuve comme Coq ou Agda, outils qui vérifient formellement la validité des programmes ou des démonstrations mathématiques.
Les concepts du lambda-calcul nourrissent les architectures parallèles, les langages web comme JavaScript, et les systèmes de types modernes. Sa philosophie minimaliste – tout est fonction – combinée à son expressivité extraordinaire en fait un instrument précieux pour penser les systèmes informatiques.
Circuit logique de Shannon
La conception des circuits électriques dans les années 1930 relevait d’un processus presque artisanal. Les ingénieurs travaillant sur les premiers ordinateurs assemblaient les relais et les interrupteurs selon leur flair technique, sans méthode formalisée. Leurs créations, fruit d’une expérience personnelle, manquaient d’un cadre théorique rigoureux.
C’est au MIT qu’un jeune étudiant nommé Claude Shannon bouleversa cette approche. En 1937, il établit un pont entre deux mondes apparemment distincts : les circuits de commutation et l’algèbre de Boole. Cette discipline mathématique, élaborée au XIXe siècle, n’avait jamais été appliquée à l’électricité. L’intuition de Shannon fut qu’un circuit fermé représente la valeur 1, un circuit ouvert la valeur 0. Deux composants en série fonctionnent comme l’opération logique AND, tandis que leur disposition en parallèle correspond à l’opération OR.
Sa thèse de master A Symbolic Analysis of Relay and Switching Circuits, publiée en 1938, formalisa cette correspondance. Le document ne se contentait pas d’exposer une théorie abstraite. Shannon y détailla des applications concrètes : un additionneur binaire et une serrure électrique à combinaison. Ces exemples démontraient la puissance d’une approche qui transformait la conception des circuits en discipline mathématique.
Les répercussions furent immédiates. Les ingénieurs disposaient désormais d’outils pour calculer le nombre minimal de composants nécessaires à une fonction donnée. Les coûts diminuèrent, la fiabilité s’améliora. Au lieu de procéder par tâtonnements, ils pouvaient vérifier leurs concepts avant la construction physique.
Shannon n’était pas seul dans cette voie. Au Japon, Akira Nakashima travaillait depuis 1935 sur des concepts similaires pour la compagnie NEC. En URSS, Viktor Shestakov explorait des idées comparables, inspiré par les travaux du physicien Paul Ehrenfest. La convergence de ces recherches montrait que le temps était mûr pour cette rupture conceptuelle.
L’arrivée des ordinateurs électroniques dans les années 1940 et 1950 donna une nouvelle dimension aux travaux de Shannon. Les relais mécaniques cédèrent la place aux tubes à vide, puis aux transistors. L’approche mathématique s’adapta parfaitement à ces nouvelles technologies. La miniaturisation constante des composants rendit indispensable l’utilisation de méthodes formelles.
L’élaboration des circuits intégrés dans les années 1960 posa la question de la conception manuelle des puces contenant des milliers de portes logiques. Les principes établis par Shannon devinrent alors le fondement des outils de conception assistée par ordinateur. Ces logiciels traduisent automatiquement des descriptions abstraites en circuits optimisés.
L’industrie des semi-conducteurs n’a cessé d’évoluer depuis, mais le cadre théorique est resté stable. Les ordinateurs actuels, malgré leur complexité vertigineuse, fonctionnent toujours selon les principes identifiés par Shannon. Sa théorie illustre comment un travail d’abstraction mathématique peut engendrer des progrès technologiques majeurs.
La représentation symbolique des systèmes proposée par Shannon a aussi inspiré le développement des langages de programmation et des méthodes de vérification formelle. Son influence s’étend à l’informatique théorique, notamment la théorie des automates et l’étude de la complexité algorithmique.
Sa thèse reçut en 1940 le prix Alfred Noble de l’American Institute of Electrical Engineers. Herman H. Goldstine la qualifia plus tard d’« une des thèses de master les plus importantes jamais écrites », qui avait transformé la conception des circuits numériques « d’un art en une science ».
Cette réussite scientifique incarne la fusion réussie entre théorie mathématique et pratique d’ingénierie. Sans cette vision, l’électronique moderne aurait suivi un chemin bien différent. Le génie de Shannon fut de comprendre qu’un formalisme abstrait du XIXe siècle pouvait résoudre les problèmes techniques du XXe : le calcul automatique et le traitement de l’information. Les ordinateurs de nos jours, avec leurs milliards de transistors, restent fidèles aux principes qu’il a formulés. Rares sont les idées qui traversent ainsi les décennies sans perdre leur pertinence.
Le Complex Number Calculator
Une planche en contreplaqué, deux relais récupérés dans une benne, des bandes découpées dans une boîte de tabac, des piles et des ampoules. Qui aurait cru que ces matériaux de fortune assemblés par George R. Stibitz dans sa cuisine en 1937 marqueraient notre histoire de l’informatique ? Ce mathématicien des Bell Telephone Laboratories (Bell Labs) venait de remarquer un parallèle entre les positions des relais téléphoniques et la notation binaire. Son bricolage domestique donna naissance à un additionneur binaire à un chiffre.
Les soirées de Stibitz se transformèrent en séances de conception de circuits pour d’autres opérations arithmétiques. En 1938, il présenta ses travaux à Thornton Fry, chef de la section mathématique du laboratoire. Fry souleva une question pratique : ces calculateurs à relais pourraient-ils traiter des nombres complexes ? Cette tâche mobilisait alors une armée de calculateurs humains chez Bell Labs.
Stibitz s’attela au défi. Les plans furent achevés dès février 1938. Il s’associa avec Sam Williams, un ingénieur spécialiste des commutations. Leur collaboration porta ses fruits en 1939 avec l’achèvement du Complex Number Calculator.
La machine brillait par ses innovations techniques. Elle utilisait un système de codage décimal-binaire avec quatre relais par chiffre décimal. Elle traitait des nombres jusqu’à huit chiffres décimaux, avec deux chiffres supplémentaires internes pour limiter les erreurs d’arrondis. Sa structure comportait deux unités de calcul distinctes : une pour la partie réelle des nombres complexes, l’autre pour la partie imaginaire.
L’interface utilisateur constituait une révolution en soi. La machine était cachée dans un placard, uniquement accessible pour la maintenance. Les utilisateurs travaillaient sur trois stations opérateur disséminées dans le bâtiment Bell Labs de West Street à New York. Chaque station disposait d’un clavier pour la saisie et d’un téléscripteur pour l’affichage des résultats. Cette configuration représente la première utilisation de terminaux distants dans l’histoire informatique.
Les touches de multiplication, ainsi que celle de division, activaient des sous-programmes d’une douzaine d’étapes. Ces derniers exécutaient les opérations complexes en utilisant les deux unités de calcul qui travaillaient exclusivement sur des nombres réels. Cette architecture annonçait déjà la notion moderne de sous-programme.
Le 11 septembre 1940, le Complex Number Calculator fut dévoilé au public lors d’une réunion de l’American Mathematical Society à Dartmouth College. Pour l’occasion, une console fut modifiée pour communiquer avec l’ordinateur via une ligne téléphonique longue distance. Les participants, dont le célèbre Norbert Wiener (père fondateur de la cybernétique), soumettaient des problèmes sur le clavier. Les données voyageaient jusqu’à l’équipement de relais à New York, et les résultats revenaient sur le téléscripteur en moins d’une minute. Cette démonstration inaugura le contrôle à distance d’un ordinateur, annonçant la transmission de données informatiques qui exploserait dans les années 1960.
Le Complex Number Calculator servit jusqu’en 1949, avec une fiabilité remarquable. Durant la Seconde Guerre mondiale, les groupes de conception de réseaux, ses principaux utilisateurs, le firent tourner presque sans interruption de 8h à 21h, six jours par semaine. La machine n’avait pas été conçue pour un tel régime. Construite comme modèle de démonstration avant la guerre, il lui manquait des fonctionnalités d’auto-vérification et de protection des contacts standard dans les centraux téléphoniques. La guerre empêcha la construction d’une seconde machine plus robuste. Vers la fin du conflit, il fallut l’arrêter deux jours pour remplacer les contacts usés des relais.
L’héritage du Complex Number Calculator est immense. Il prouva la faisabilité des calculs automatiques avec des composants électromécaniques fiables. Son succès engendra d’autres calculateurs à relais chez Bell Labs pendant la guerre : le Model II en 1943, capable d’opérations itératives, puis les Model III et IV en 1944-1945, plus puissants avec environ 1400 relais et sept unités de téléscripteur chacun.
Ces machines établirent des principes fondamentaux toujours présents dans l’informatique moderne : l’utilisation du binaire pour les calculs, la séparation entre unité de calcul et interface utilisateur, la notion de sous-programme, et l’accès distant aux ressources de calcul. Les calculateurs à relais de Bell Labs continuèrent à fonctionner efficacement 13 à 15 ans après la guerre, certains restant en service bien après l’arrivée des premiers ordinateurs électroniques commerciaux.
Le Complex Number Calculator, né dans une cuisine, a montré qu’on pouvait automatiser des tâches mathématiques complexes de façon fiable. Son influence s’est étendue jusqu’aux systèmes de comptabilité automatique des messages téléphoniques, où des calculateurs similaires traitaient la facturation détaillée des appels. Cette machine représente un chaînon essentiel entre les calculateurs mécaniques et nos ordinateurs.
Si ce contenu vous a plu, vous pouvez soutenir ce projet en faisant un don ou en commandant l'édition papier sur Lulu ou Amazon. Tout le contenu reste librement accessible sous licence CC BY-SA 4.0.