EPOCH
EPOCH © 2025 par Stéphane Fosse - Ce livre est publié selon les termes de la licence CC BY-SA 4.0
Chapitre 1
Avant 1930
L’aube de l’informatique
La période de 1700 à 1930 bouleversa radicalement notre humanité. Ces deux siècles, marqués par l’industrialisation et ses secousses sociales, constituèrent les bases de l’informatique qui allait naître.
Le XVIIIe siècle vit l’Europe s’enflammer d’une fièvre intellectuelle sans précédent. Les Lumières imposèrent une vision du monde où science et raison prirent le trône. Des inventeurs, habités par une curiosité frénétique, cherchèrent à dompter l’univers par les nombres et les mécanismes. Les académies des sciences se multiplièrent comme autant de ruches bourdonnantes d’idées nouvelles, tissant leurs réseaux à travers le vieux continent.
Vers 1760, la Grande-Bretagne fut secouée par les premières convulsions de la révolution industrielle. Les usines naissantes avalèrent les travailleurs et les machines remplacèrent peu à peu les mains. Les industriels, confrontés à la complexité grandissante de leurs entreprises, réclamèrent des outils précis pour jongler avec leurs chiffres. Cette soif de précision arithmétique poussa les inventeurs à imaginer des solutions mécaniques aux calculs les plus laborieux.
La fin du siècle assista à l’éclosion des premiers dispositifs mécanisés dans les filatures. Joseph-Marie Jacquard transforma le tissage en 1801 avec ses cartes perforées qui dictaient aux métiers les motifs à reproduire. Ces rectangles de carton troués, qui semblaient si anodins, portaient en eux le germe des futurs systèmes informatiques. Chaque trou, chaque plein représentait une information binaire que la machine interprétait sans erreur, une préfiguration saisissante des mémoires numériques.
Le XIXe siècle s’ouvrit dans un tourbillon de changements. Les empires étirèrent leurs tentacules aux quatre coins du globe, le commerce s’intensifia, créant un besoin viscéral de communications rapides. Le chemin de fer, ce monstre d’acier qui dévorait l’espace, imposa la synchronisation des horloges et la gestion rigoureuse des horaires. Les États modernes gonflèrent leurs administrations, qui se noyèrent bientôt sous les montagnes de paperasse.
George Boole, mathématicien anglais à l’esprit incisif, publia en 1847 sa théorie de l’algèbre logique. Semblant n’intéresser que quelques savants excentriques, ses travaux contenaient la clé qui déverrouillerait un jour les portes de l’informatique. Son système binaire, réduisant toute proposition à vrai ou faux, attendait patiemment que des esprits visionnaires s’en saisissent.
Le télégraphe électrique, fils de cuivre tendus d’un continent à l’autre, pulvérisa les barrières du temps et de l’espace après 1840. Ce qui prenait des mois ne demandait désormais que des minutes. Samuel Morse imposa son code de points et de traits, première standardisation du langage binaire. Les câbles sous-marins, serpents de cuivre posés au fond des océans, connectèrent l’Europe à l’Amérique dès 1866, créant le premier réseau mondial de communication instantanée.
L’adoption du temps universel en 1884 lors de la Conférence internationale du méridien de Washington illustra parfaitement comment la technologie remodela notre perception du monde. Les 24 fuseaux horaires imposèrent une discipline temporelle inédite à l’humanité. Le monde entier régla ses montres sur Greenwich, soumis à la tyrannie douce des horloges synchronisées.
Les dernières décennies du XIXe siècle virent les entreprises croître jusqu’à devenir des monstres bureaucratiques. Banques, assurances et grands magasins croulèrent sous les registres et les fiches. Le recensement américain de 1890 illustra ce problème : l’administration fédérale mit sept ans à dépouiller les données du recensement précédent. Herman Hollerith, jeune ingénieur surdoué, conçut sa machine à tabuler électromagnétique. Grâce à elle, les résultats du recensement de 1890 furent disponibles en seulement six semaines. Sa Tabulating Machine Company, fondée en 1896, deviendrait plus tard IBM.
La Grande Guerre transforma radicalement le rapport aux technologies de l’information. Dans l’ombre des tranchées, mathématiciens et linguistes brisèrent les codes ennemis. En France, le lieutenant Georges Painvin déchiffra le code ADFGVX allemand en 1918, déjouant l’offensive du Printemps et sauvant peut-être Paris. Les calculs balistiques, nécessaires pour l’artillerie à longue portée comme le Paris-Geschütz allemand, exigeaient une précision sans précédent. La guerre avait montré que la victoire appartenait à ceux qui maîtrisaient l’information.
L’entre-deux-guerres vit naître de nouvelles méthodes d’organisation du travail. Frederick Taylor disséqua les gestes ouvriers au chronomètre tandis que Henry Ford imposa sa chaîne de montage. Le bureau suivit l’usine dans cette course à la rationalisation. Les machines comptables Burroughs, les caisses enregistreuses National, les calculatrices Monroe envahirent les administrations. Le bruit des touches, le carillon des totaux, le glissement des chariots rythmèrent désormais le quotidien des cols blancs.
Les années 1920 virent l’explosion des télécommunications. La TSF (Télégraphie Sans Fil) porta les voix et la musique dans chaque foyer. La BBC (British Broadcasting Corporation) émit ses premiers programmes réguliers en 1922, suivie par de nombreuses stations à travers le monde. Le téléphone, invention de Graham Bell en 1876, quitta le statut de gadget pour les riches et commença sa conquête des foyers. Les standardistes, majoritairement des femmes, devinrent les premières interfaces humaines entre les machines et leurs utilisateurs, métaphore saisissante des futures relations homme-machine.
Les mutations sociales accompagnèrent ces évolutions technologiques et l’alphabétisation massive changea le rapport aux connaissances. En France, les lois Jules Ferry de 1881-1882 imposèrent l’école obligatoire. Aux États-Unis, le taux d’alphabétisation dépassa 80% dès 1870. Cette population instruite demanda toujours plus de livres, de journaux, d’informations. Le savoir devint une marchandise qui circulait désormais à la vitesse de l’électricité.
L’urbanisation galopante créa des difficultés inédites d’organisation. Paris passa de 500 000 à 3 millions d’habitants entre 1800 et 1930. New York explosa de 60 000 à 7 millions d’âmes pendant cette période. Ces métropoles tentaculaires exigèrent des infrastructures colossales. Le baron Haussmann redessina Paris, imposant ses avenues rectilignes aux vieux quartiers médiévaux. À New York, l’ingénieur John Augustus Roebling jeta son pont suspendu entre Manhattan et Brooklyn en 1883. Ces prouesses techniques imposèrent des calculs d’une précision diabolique et une gestion méthodique des ressources.
Le monde du travail se métamorphosa sous ces influences croisées. Le secteur tertiaire gonfla jusqu’à dominer l’économie américaine dès les années 1920. Les travailleurs de l’information, comptables, sténographes, opérateurs, formèrent une nouvelle classe sociale. Les femmes envahirent ces professions, modifiant les rapports de genre dans la société. La dactylographe, penchée sur sa Remington, devint une figure emblématique de cette modernité bureaucratique.
En 1929, à la veille du krach boursier qui allait ébranler l’économie mondiale, l’informatique restait encore à naître officiellement. Pourtant, tous les ingrédients de sa future explosion étaient réunis. Les besoins en calcul s’intensifiaient dans tous les domaines. Les théories mathématiques nécessaires avaient mûri. L’électronique balbutiante promettait des performances inouïes. Le terrain était prêt pour l’avènement des calculateurs programmables qui allaient bientôt transformer le monde plus radicalement que la machine à vapeur ne l’avait fait un siècle plus tôt.
Système binaire
Le parcours historique du système binaire révèle comment cette idée mathématique s’est muée en fondement de notre informatique. Thomas Harriot, mathématicien anglais, esquissa vers 1600 les premiers traits d’une représentation numérique basée uniquement sur 0 et 1. Ses recherches sur les combinaisons l’amenèrent à constater que tout nombre pouvait s’exprimer comme somme de puissances de 2. Ces travaux, jamais publiés, restèrent dans l’ombre jusque dans les années 1920.
Un siècle plus tard, Gottfried Wilhelm Leibniz redécouvrit ce système par hasard. Dans les années 1670, alors qu’il planchait sur la division des nombres et les nombres premiers, la notation binaire lui apparut comme une solution élégante pour certains calculs mathématiques. Au début, il l’utilisait simplement pour illustrer ses théorèmes sans imaginer son usage pratique. Dans sa lettre de 1697 au Duc de Brunswick, Leibniz propose de créer une médaille commémorative et développe une lecture théologique du binaire où le 1 symbolise l’être, le 0 le néant. Cette médaille ne vit jamais le jour, mais la lettre lança une série de publications sur ce système.
En 1703, dans les Mémoires de l’Académie Royale des Sciences, Leibniz publia son « Explication de l’arithmétique binaire ». Ce texte exposait les principes du système et montrait comment réaliser les opérations de base tout en admettant la lourdeur de ces longues séquences de 0 et de 1 pour un usage quotidien.
Le XVIIIe siècle vit des mathématiciens comme Jean Bernoulli et Leonard Euler s’emparer du binaire. Euler l’utilisa notamment pour étudier les propriétés des nombres de type 2n + 1. D’autres chercheurs tissèrent des liens entre ce système et d’autres bases numériques comme l’octal ou l’hexadécimal.
L’application pratique du binaire apparut au XIXe siècle avec l’avènement des télécommunications. Le télégraphe de Morse, breveté en 1837, s’appuyait sur deux états électriques, présence ou absence de courant, pour transmettre l’information. Son code associait points et traits, préfigurant l’usage futur du binaire dans les communications numériques. Émile Baudot franchit un pas supplémentaire en 1870 avec son code télégraphique explicitement binaire. En 1901, Charles Bouton démontra l’utilité du binaire pour analyser le jeu de Nim, ouvrant la voie à son application dans la théorie des jeux.
La révolution vint avec l’électronique du XXe siècle. Le circuit flip-flop d’Eccles-Jordan, créé en 1919, donna une existence physique aux états 0 et 1. Cette invention capitale rendit possibles les premiers circuits de mémoire binaire. En 1937, Claude Shannon démontra dans sa thèse le lien entre l’algèbre booléenne et le système binaire pour concevoir des circuits de commutation électroniques.
Les premiers ordinateurs comme l’ENIAC (1946) fonctionnaient encore en base décimale, avec dix tubes à vide par chiffre. Le rapport Burks-Goldstine-von Neumann de 1947 changea la donne en montrant les atouts du binaire : circuits plus simples, fiabilité accrue, harmonie naturelle avec les opérations logiques. Cette recommandation influença tous les ordinateurs suivants.
Les années 1950-1960 virent l’essor des mémoires électroniques, renforçant l’hégémonie du binaire. Les mémoires à tores magnétiques puis à semi-conducteurs reposaient par nature sur deux états distincts. Certains constructeurs tentèrent d’explorer des mémoires à quatre ou seize niveaux dans les années 1970-1980, Intel expérimenta des ROM à quatre niveaux dans certains processeurs, mais ces tentatives restèrent marginales face à la robustesse du stockage binaire.
Le binaire s’étendit au-delà du matériel informatique. Les télécommunications numériques l’adoptèrent pour leur résistance au bruit et leur capacité à régénérer les signaux. Les supports optiques comme les CD-ROM et DVD-ROM l’utilisèrent aussi. Sa réussite tient à sa simplicité conceptuelle qui rend les circuits plus fiables, sa compatibilité avec l’algèbre de Boole qui en fait le langage naturel des opérations logiques, et sa robustesse face aux perturbations qui s’explique par la distinction de seulement deux états.
Les recherches sur d’autres systèmes numériques n’ont pas disparu pour autant. Le ternaire (à trois états) fit l’objet d’études poussées en Union soviétique dans les années 1950. Plus récemment, l’informatique quantique a ouvert des horizons nouveaux avec ses qubits capables d’exister dans une superposition d’états. Malgré ces alternatives, le système binaire demeure l’âme de l’informatique classique. Sa capacité à coder toute information avec deux symboles uniquement lui confère une universalité remarquable.
Carte perforée
En 1801, Joseph-Marie Jacquard, tisserand lyonnais, cherchait un moyen d’automatiser ses métiers à tisser. Il inventa des cartes en carton perforé pour encoder les motifs de tissage. Sans le savoir, il venait de poser la première pierre d’une idée majeure. Ces cartons n’étaient pas destinés aux calculs, mais ils matérialisaient déjà le concept puissant de transformer une instruction en trous lisibles par une machine.
C’est presque un siècle plus tard, en 1890, que le Bureau du Recensement américain fait face à un problème colossal. La population croît à une vitesse folle et le précédent recensement s’était étalé sur huit années. Un statisticien nommé Herman Hollerith proposa alors la solution audacieuse d’adapter le principe de Jacquard au comptage des personnes. Son système réduisit le temps de traitement à deux ans et demi seulement. Un gain stupéfiant qui ne passa pas inaperçu à l’époque. Le succès fut tel que Hollerith fonda sa propre entreprise en 1896, la Tabulating Machine Company. Celle-ci fusionnerait plus tard avec d’autres pour donner naissance à un géant que nous connaissons tous : IBM.
Au début du XXe siècle, la carte perforée s’installa dans le paysage administratif des grandes organisations. Finie la comptabilité manuelle ! Les trésoriers et comptables s’émerveillaient devant ces machines capables de trier, compter et additionner en un temps record. La gestion des stocks, les calculs de paie, tout y passait.
Les premières cartes de Hollerith ne comptaient que 45 colonnes, dimension rapidement jugée insuffisante. En 1928 chez IBM, Clair D. Lake remplaça les trous circulaires par des trous rectangulaires, permettant ainsi de passer de 45 à 80 colonnes sur la même surface. Une innovation qui marquera durablement l’informatique.
Cette norme des 80 colonnes a laissé une empreinte surprenante sur notre monde numérique actuel. Quand IBM conçut ses premiers terminaux dans les années 1960, comme le fameux 3270, chaque ligne affichait exactement 80 caractères. Un choix dicté par la compatibilité avec l’existant. Cette contrainte technique s’est propagée comme une onde de choc à travers les décennies. Aujourd’hui encore, de nombreux éditeurs de code limitent par défaut les lignes à 80 caractères, ou du moins le proposent. Les émulateurs de terminal perpétuent cette tradition. Les guides de bonnes pratiques en programmation recommandent cette limite pour améliorer la lisibilité. L’ombre de la carte perforée plane toujours sur nos écrans.
Entre les deux guerres mondiales, une véritable industrie du traitement mécanographique des données se développa. IBM dominait aux États-Unis, tandis qu’en Europe, des sociétés comme Powers (future Remington Rand) ou Bull en France tentaient de se tailler une part du marché. Leur modèle économique reposait sur la location des machines plutôt que sur leur vente, assurant des revenus stables et un contrôle rigoureux sur cette technologie stratégique.
Cette nouvelle technique créa de nouveaux métiers. Les salles de mécanographie s’animaient sous les doigts agiles des perforatrices, majoritairement des femmes, qui transformaient les données brutes en cartes perforées avec une précision d’orfèvre. D’autres vérifiaient chaque carte, pendant que les opérateurs réglaient les trieuses et tabulatrices. Ces départements devinrent le cœur battant des grandes organisations.
L’apogée de la carte perforée survint dans les années 1950-1960. Après l’arrivée des premiers ordinateurs électroniques, elle demeura le support privilégié pour l’entrée et le stockage des données. Les premiers modèles d’IBM, comme le 650 ou le 1401, furent d’ailleurs conçus pour s’intégrer aux installations existantes de cartes perforées, accompagnant en douceur la transition vers l’ère électronique.
L’histoire de cette technologie comporte aussi ses zones d’ombre. Durant la Seconde Guerre mondiale, les systèmes à cartes perforées servirent au recensement et au contrôle des populations en Europe occupée. La Deutsche Hollerith-Maschinen Gesellschaft, filiale allemande d’IBM, fournit des machines utilisées pour organiser la déportation. Un rappel glaçant que toute technologie peut aussi être utilisée à des fins terribles.
Le déclin s’amorça dans les années 1970. L’arrivée des terminaux interactifs et des supports magnétiques signa progressivement l’arrêt de mort de ces rectangles de carton. La carte perforée a établi le principe du stockage binaire de l’information (trou ou pas trou, 1 ou 0), séparé clairement le support de données de la machine de traitement, et montré l’importance de la standardisation. Les méthodes organisationnelles développées autour d’elle ont influencé la conception des premiers ordinateurs et structuré l’organisation du travail dans les centres de calcul.
Charles Babbage
Le jeune Charles Babbage voit le jour dans un foyer fortuné de Londres en 1791. Son parcours à Cambridge, où il obtient une formation mathématique rigoureuse, lui fait prendre conscience des limites du calcul manuel. Avec quelques camarades, il fonde la Société Analytique pour moderniser l’enseignement des mathématiques à l’université. Cette première expérience traduit déjà son désir de renouveler les méthodes établies.
Un soir de 1821, Charles discute avec son ami John Herschel. Tous deux s’épuisent à vérifier des tables mathématiques truffées d’erreurs. « Imaginez ces calculs réalisés par une machine à vapeur », lance Babbage. Cette réflexion, jetée dans la conversation, marque le début d’une aventure intellectuelle extraordinaire.
Babbage se met au travail. Sa première création, la machine à différences, doit calculer automatiquement des polynômes grâce à la méthode des différences finies. Le prototype de 1822 fonctionne assez bien pour convaincre le gouvernement britannique de financer une version plus ambitieuse. Un vrai tour de force puisque l’appareil ne se contente pas d’effectuer les opérations, il imprime aussi les résultats, évitant toute erreur de transcription.
Les roues dentées s’emboîtent dans un ballet mécanique complexe. Mais les artisans londoniens, malgré leur savoir-faire, ne parviennent pas à fabriquer des pièces avec la précision requise. Le projet s’enlise. Babbage, loin de se décourager, se tourne vers une idée plus audacieuse encore.
En 1834, sa machine analytique prend forme sur le papier. Cette nouvelle machine ne suit plus un programme fixe mais peut être reprogrammée pour différents calculs. Son architecture ressemble étrangement aux ordinateurs du XXe siècle : une unité de calcul (le moulin), une mémoire (le magasin), des dispositifs d’entrée et de sortie de données.
Fasciné par les métiers à tisser Jacquard, Babbage leur emprunte le principe des cartes perforées pour commander sa machine. Ces cartes définissent à la fois les données et les instructions à exécuter. La machine analytique intègre tout ce qui fait l’essence de l’informatique moderne, c’est-à-dire le programme stocké, les boucles conditionnelles et les sous-programmes. Elle compare des nombres, prend des décisions, exécute les quatre opérations arithmétiques de base.
Sa rencontre avec Ada Lovelace donne une nouvelle dimension au projet. Fille de Lord Byron et mathématicienne brillante, Ada traduit un article italien décrivant la machine. Ses notes ajoutées à la traduction détaillent un algorithme pour calculer les nombres de Bernoulli. Ce texte reste gravé dans l’histoire comme le premier programme informatique jamais écrit.
La machine analytique ne dépassera jamais le stade des plans et des schémas. L’Angleterre victorienne, malgré sa puissance industrielle, ne sait pas fabriquer un mécanisme d’une telle complexité et précision. Le coût du projet effraie les financeurs publics. Pourtant, jusqu’à sa mort en 1871, Babbage ne cesse d’affiner ses dessins, obsédé par sa vision.
Cent ans plus tard, Howard Aiken crée le Harvard Mark I en s’inspirant directement des travaux de Babbage. Les concepteurs de l’ENIAC et des premiers ordinateurs électroniques reprennent ses principes architecturaux sans toujours connaître leur origine. Babbage avait tout compris : la séparation entre matériel et logiciel, la notion de débogage, la réutilisation de code. Il avait aussi anticipé les questions de fiabilité et de performance qui hantent toujours l’informatique d’aujourd’hui.
En 1991, le Science Museum de Londres construit enfin une version fonctionnelle de sa machine à différences n°2. Elle fonctionne parfaitement, prouvant la justesse des calculs de Babbage et la cohérence de sa conception mécanique. Ce n’est pas seulement un inventeur que l’on redécouvre, mais un penseur aux multiples facettes.
Ses écrits sur l’économie industrielle, ses critiques du système universitaire britannique, son intérêt pour l’application des mathématiques à l’industrie montrent un esprit en avance sur son temps. Entre les calculatrices mécaniques du XVIIe siècle et les ordinateurs électroniques, l’œuvre de Charles Babbage trace un chemin visionnaire, trop souvent méconnu.
Algèbre de Boole
Au début du XIXe siècle, la froideur des mathématiques de nos voisins britanniques contraste avec l’effervescence continentale. Une querelle entre disciples de Newton et de Leibniz avait sclérosé les travaux outre-Manche. Tandis que l’Europe calculait avec la notation différentielle leibnizienne, les Britanniques s’accrochaient aux fluxions newtoniennes, moins pratiques, moins fécondes.
Vers 1810, quelques esprits novateurs fondèrent la Société Analytique à Cambridge. Babbage et ses camarades brisèrent l’isolement intellectuel en important les méthodes du continent. Cela mit en question les fondements mêmes de l’algèbre : que signifiaient réellement ces nombres négatifs, ces quantités imaginaires ? Une réponse émergea dans l’algèbre symbolique. Elle ne tirait plus sa légitimité d’opérations sur des nombres, mais établissait des lois formelles applicables à n’importe quels symboles.
C’est dans cette atmosphère intellectuelle que George Boole forgea son œuvre. Né en 1815 à Lincoln dans un milieu modeste, jamais diplômé d’université, il se forma seul aux mathématiques avec une rigueur stupéfiante. D’abord maître d’école, il finit professeur au Queen’s College de Cork en 1849. Une controverse entre Augustus De Morgan et William Hamilton sur la quantification du prédicat l’incita à publier en 1847 The Mathematical Analysis of Logic. Son intuition était d’appliquer l’algèbre au raisonnement logique.
Boole transforma la logique en système formel avec sa notation algébrique. Des symboles littéraux comme x ou y représentaient des classes d’objets, combinables par opérateurs (+, ×). Ces opérations suivaient des règles précises : commutativité (xy = yx), distributivité (x(u + v) = xu + xv), et cette propriété singulière : x2 = x. Cette dernière règle marquait une rupture avec l’algèbre numérique ordinaire, où seuls 0 et 1 la respectent.
Son système traduisait les propositions logiques en équations. Ainsi, tous les X sont Y devenait x(1 − y) = 0. L’usage du symbole 1 pour l’univers du discours et 0 pour la classe vide constituait une autre trouvaille.
Augustus De Morgan, ami et contemporain de Boole, développait parallèlement ses propres théories logiques. Son Formal Logic parut le même jour que l’ouvrage de Boole en 1847. De Morgan introduisit la notion d’univers du discours variable, rompant avec l’univers fixe aristotélicien. Il formula aussi les fameuses lois qui portent son nom : la négation d’une conjonction équivaut à la disjonction des négations, et réciproquement.
La notation booléenne souffrait de limitations. Boole exigeait que l’addition ne s’applique qu’à des classes disjointes, compliquant l’expression de certaines relations. Sa définition de la soustraction imposait que la classe soustraite soit incluse dans celle de départ.
Dans les décennies suivantes, des mathématiciens affinèrent ce système. Charles Sanders Peirce apporta des contributions décisives dans les années 1880, démontrant notamment que toutes les opérations booléennes pouvaient se réduire à une seule : le NAND (non-et) ou le NOR (non-ou).
La notation moderne prit forme progressivement. Bertrand Russell introduisit le symbole ∨ (ou) en 1906, tandis que Arend Heyting proposa ∧ (et) en 1930. L’expression « algèbre booléenne » fut employée pour la première fois par Henry Maurice Sheffer en 1913.
En 1936, Marshall Harvey Stone franchit un pas vers l’abstraction en unifiant les travaux antérieurs sous le concept d’anneau booléen. Il établit l’isomorphisme entre l’algèbre booléenne et cette structure, créant un pont théorique fondamental.
Les applications pratiques de l’algèbre de Boole explosèrent au XXe siècle. En 1938, Claude Shannon démontra dans sa thèse de master au MIT que ces principes permettaient d’analyser et concevoir des circuits de commutation électrique. Cette découverte créa un lien entre logique mathématique et conception électronique, fondant l’informatique moderne.
De nos jours, l’algèbre booléenne traverse toute l’informatique. Elle structure la conception des circuits logiques, la vérification formelle des programmes et l’optimisation des requêtes dans les bases de données. Chaque microprocesseur repose sur des techniques d’optimisation issues de cette théorie.
L’histoire de l’algèbre de Boole montre comment une théorie abstraite, née de questions sur la logique, transforme un domaine technologique entier. Elle souligne l’importance des notations mathématiques en lesquelles un symbolisme adapté révèle des relations invisibles auparavant. George Boole rêvait d’un « calcul de la pensée » mécanisant le raisonnement logique. Si ce projet philosophique n’a pas abouti tel quel, ses outils mathématiques sont devenus le langage secret des machines qui façonnent notre monde.
Câble sous-marin
Au milieu du XIXe siècle, franchir l’Atlantique exigeait au moins dix jours de navigation. C’est en 1840 que Samuel Morse lance une idée qui semble tenir du rêve : relier l’Europe à l’Amérique par un câble télégraphique au fond de l’océan. Cette vision presque délirante allait transformer notre rapport au temps et à l’espace.
Un homme d’affaires nommé Cyrus W. Field s’empare de cette ambition. Après avoir bâti sa fortune dans l’industrie papetière, il s’intéresse à la télégraphie durant les années 1850. Son premier projet, modeste, visait à connecter Saint-Jean de Terre-Neuve à New York, reprenant le travail de l’ingénieur Frederic Newton Gisborne. Les finances manquent. Qu’à cela ne tienne, Field voit plus grand et réoriente tout vers une liaison transatlantique.
L’Atlantic Telegraph Company naît en 1856 sous l’impulsion de Field et des ingénieurs John Watkins Brett et Charles Tilston Bright, deux Britanniques rompus aux télécommunications sous-marines. Londres et Washington participent au financement. La conception du câble déclenche des discussions passionnées entre spécialistes. Morse, soutenu par Michael Faraday, plaide pour un fil fin limitant le retard du signal. William Thomson, futur Lord Kelvin, défend un noyau de cuivre épais réduisant la résistance électrique.
La Gutta Percha Company fabrique finalement ce câble révolutionnaire. Sa structure était finalement composée de sept fils de cuivre torsadés créant un conducteur de 2,1 millimètres, enveloppé dans trois couches de gutta-percha, résine extraite d’un arbre indonésien. Une protection de chanvre goudronné et une armature métallique complètent l’ensemble, pour un diamètre final d’environ 1,6 centimètre.
Aucun navire ne pouvait emporter seul les 3 200 kilomètres de câble nécessaires. L’opération mobilise donc deux vaisseaux : le HMS Agamemnon britannique et l’USS Niagara américain. Le chargement dure trois semaines, attirant déjà l’œil des journalistes et la curiosité publique.
Le premier essai de 1857 fut un échec. Le câble se rompt près des côtes irlandaises. L’année suivante, trois tentatives se succèdent. Le 29 juillet 1858, les navires se retrouvent au milieu de l’océan, raccordent leurs portions de câble et partent en sens opposés. Le 5 août, les continents sont enfin reliés entre la baie de Bull’s Arm à Terre-Neuve et Telegraph Field sur l’île irlandaise de Valentia.
Le 16 août 1858, la reine Victoria et le président James Buchanan échangent des messages. La transmission des 98 mots de la souveraine prend presque seize heures, un délai qui représentait alors une avancée prodigieuse.
La liesse explose de part et d’autre de l’océan. New York organise défilé et feu d’artifice si enthousiaste qu’il embrase partiellement l’hôtel de ville. L’église Trinity célèbre l’événement dans le sud de Manhattan. À Londres, les actions de l’Atlantic Telegraph Company doublent de valeur tandis que Charles Tilston Bright reçoit un titre de noblesse.
Le joaillier Tiffany & Co. flaire l’affaire et rachète les centaines de kilomètres de câble inutilisés rapportés par l’USS Niagara. L’entreprise les transforme en souvenirs, des segments de dix centimètres avec embouts en laiton et plaque descriptive vendus cinquante cents pièce. D’autres commerçants suivent avec boutons de manchette, boucles d’oreilles ou coupe-papier.
La magie dure peu et en quelques semaines, le câble cesse de fonctionner, les transmissions sont illisibles. Edward Orange Wildman Whitehouse, responsable technique du terminus irlandais, avait appliqué des tensions démesurées jusqu’à 2000 volts, persuadé qu’il fallait augmenter l’intensité avec la distance. Une analyse de 1985 par l’historien Donard de Cogan révélera aussi des problèmes de fabrication, le conducteur central décentré passait dangereusement près de l’armature métallique extérieure. Le mariage de ces défauts avec l’isolation imparfaite de la gutta-percha et les impuretés des matériaux signait l’arrêt de mort du câble.
Durant sa brève existence, cette première liaison aura transmis 732 messages. Parmi eux, l’ordre britannique d’annuler l’envoi de deux régiments vers l’Inde, la rébellion locale étant maîtrisée. Cette décision économisa entre 50 000 et 60 000 livres sterling, environ un septième du coût du câble.
L’échec technique provoque rumeurs et accusations d’escroquerie. Cyrus W. Field, loin de se décourager et toujours soutenu par le gouvernement britannique, persévère. L’Atlantic Telegraph Company installe finalement une liaison permanente en 1866. Ce projet, aboutissant à l’époque où l’eau courante et l’électricité restaient inaccessibles pour la majorité des gens, témoigne d’une vision extraordinaire.
Cette première traversée électrique de l’Atlantique marque l’histoire des communications. Elle prouve la possibilité des échanges intercontinentaux instantanés et annonce l’architecture du réseau mondial de câbles sous-marins sur lequel repose aujourd’hui tout Internet.
Herman Hollerith
Au XIXe siècle, les États-Unis croulent sous les données. Le Bureau du recensement américain peine à suivre la cadence face à une population qui explose. Herman Hollerith va créer une machine qui répondra à la problématique du traitement de ces montagnes de formulaires.
En 1879, fraîchement diplômé de l’École des mines de Columbia, il rejoint le Bureau du recensement. Il rencontre le Dr John Shaw Billings, qui dirige la division des statistiques démographiques, et qui lui souffle l’idée de mécaniser le traitement des données. En effet, l’enjeu saute aux yeux quand on regarde le recensement de 1880. Cinquante millions d’Américains à comptabiliser. Des opérateurs qui traitent péniblement vingt caractéristiques par minute avec des outils rudimentaires. Les chiffres ne sont publiés qu’en 1889, soit un an à peine avant le prochain recensement. La situation est intenable.
Hollerith quitte ensuite le Bureau pour suivre le général Francis Walker au MIT. Devenu instructeur en génie mécanique, il commence à développer ses premiers prototypes. Il s’inspire du travail du colonel Charles W. Seaton, qui avait créé une machine utilisant un système d’alimentation par rouleau comparable à celui d’un piano mécanique. Mais Hollerith prendra une autre direction.
Après cette parenthèse académique, il revient à Washington, intègre l’Office des brevets, puis s’établit comme expert indépendant. Cette expérience lui donne les clés pour protéger ses futures inventions. Il travaille d’abord sur des freins électriques pour les chemins de fer, surpassant George Westinghouse lors d’essais en 1887. Mais les examinateurs doutent de la fiabilité de l’électricité comme source d’énergie. Qu’à cela ne tienne.
Son système de traitement des données repose sur des cartes perforées de format 6,5 × 3,25 pouces. L’opérateur, en lisant les formulaires du recensement, peut y coder jusqu’à 17 caractéristiques différentes parmi 240 positions possibles. Les codes standard, comme ceux des districts, sont préréglés et reproduits sur des piles entières de cartes.
La machine à tabuler révèle l’ingéniosité de Hollerith. Dans la mâchoire supérieure, des rangées de tiges à ressort ; dans la mâchoire inférieure, de minuscules godets de mercure. Les tiges, connectées à un courant électrique, font face aux godets reliés à 40 compteurs. L’employé insère une carte dans la presse, ferme les mâchoires, et les tiges passant par les trous plongent dans le mercure. Le courant circule jusqu’aux compteurs électromagnétiques, faisant avancer chaque aiguille concernée. Un tour complet de l’aiguille des unités active celle des centaines. La carte est ensuite déposée dans une case du trieur avant de passer à la suivante.
Les chiffres parlent d’eux-mêmes : 700 cartes perforées par jour et par opérateur, 7 000 cartes traitées quotidiennement par un utilisateur de la machine, 250 caractéristiques analysées par minute. Grâce à des relais, le système réalise des analyses plus fines, comme repérer les « hommes blancs nés à l’étranger ».
Le grand baptême du feu arrive avec le recensement de 1890. Le Bureau commande cinquante machines pour comptabiliser près de 63 millions d’Américains. Un tel succès que l’administration utilisera des versions améliorées du système pendant six décennies, jusqu’à l’arrivée de l’UNIVAC I.
L’influence de Hollerith se propage au-delà du recensement. Les services statistiques, les compagnies d’assurance, les chemins de fer, tous veulent cette technologie qui réduit drastiquement les délais de traitement des données. Dans une société industrielle en pleine mutation, elle répond à un besoin critique. D’ailleurs, certains choix techniques qu’il a fait ont eu une longévité surprenante. Le format de ses cartes perforées correspond aux dimensions des billets de banque de l’époque, simplement parce qu’il existait déjà des meubles de classement adaptés. Son système de codage positionnel, conçu pour le recensement agricole de 1901, influencera IBM et d’autres entreprises jusqu’aux années 1970.
Les brevets déposés par Hollerith sont les précurseurs de l’industrie du traitement des données. Durant soixante ans, sa machine a comblé le fossé entre traitement manuel et informatique électronique. Elle a transformé la façon dont nous gérons l’information, tout en initiant les techniques de l’industrie informatique moderne. Une invention née d’un problème très concret.
Si ce contenu vous a plu, vous pouvez soutenir ce projet en faisant un don ou en commandant l'édition papier sur Lulu ou Amazon. Tout le contenu reste librement accessible sous licence CC BY-SA 4.0.