Stéphane FOSSE

EPOCH


EPOCH © 2025 par - Ce livre est publié selon les termes de la licence CC BY-SA 4.0

Chapitre 6
1970

Quand le numérique transforma le monde

Tandis que les bombes pleuvent sur le Vietnam, trois ingénieurs chez Intel achèvent la conception du premier microprocesseur commercial. Leur invention, presque passée inaperçue dans un monde obsédé par la guerre froide, changera tout.

La décennie qui s’ouvre se joue dans un climat particulier. L’Amérique saigne au Vietnam. Les jeunes descendent dans la rue. L’URSS et les États-Unis se toisent. Le pétrole devient une arme. Et au milieu de ce chaos mondial, une poignée d’hommes et de femmes inventent l’avenir numérique.

Les campus américains bouillonnent. La contestation sociale y rejette l’autorité établie, y compris celle des grands ordinateurs centralisés qui symbolisent le pouvoir institutionnel. À Berkeley comme au MIT, des étudiants rêvent d’une informatique différente, plus personnelle, plus accessible. Dans les laboratoires universitaires, on s’affaire autour de machines qui n’ont rien à voir avec les colosses climatisés des entreprises. C’est là, à l’écart des sentiers balisés par IBM, que naît une autre vision de l’ordinateur.

En 1973, le choc pétrolier frappe. Les files s’allongent devant les stations-service. L’inflation s’envole. Face à cette crise, les entreprises cherchent à réduire leurs coûts. L’informatisation apparaît comme une solution. Les banques sont les premières à s’y engouffrer car elles doivent gérer un nombre croissant de transactions dans un contexte économique instable. Leurs besoins propulsent le développement de bases de données toujours plus sophistiquées. Oracle naît dans ce contexte, sur une idée de Larry Ellison inspirée par un article théorique d’IBM.

À l’Est, derrière le rideau de fer, l’URSS tente de ne pas décrocher. Elle lance son propre plan informatique, copiant parfois les architectures occidentales. Les accords SALT n’y changent rien, la technologie continue d’être un enjeu de puissance. Les ordinateurs soviétiques équipent les usines, les administrations, mais souffrent d’un retard croissant. L’informatique marque visiblement la différence entre les deux blocs.

Le Japon, lui, joue sa propre partition. Sans les contraintes militaires qui pèsent sur l’industrie américaine, les entreprises japonaises se concentrent sur l’électronique grand public. Elles excellent dans la miniaturisation. Sony, Panasonic et Sharp s’imposent partout dans le monde. Leurs composants équipent bientôt les premiers ordinateurs personnels. Le pays, défait en 1945, prend sa revanche technologique.

L’Europe avance en ordre dispersé. La France mise sur son Plan Calcul et la Compagnie Internationale pour l’Informatique pour créer un champion national. L’Allemagne s’appuie sur Siemens. Le Royaume-Uni développe ICL. Mais ces initiatives nationales peinent face aux géants américains. Les universités européennes, en revanche, brillent dans la recherche théorique. Le langage Pascal, créé par Niklaus Wirth à l’École Polytechnique Fédérale de Zurich, marque une avancée dans la conception des langages de programmation.

La télévision règne alors sans partage sur les foyers occidentaux. Les images du premier pas sur la Lune, vues par des centaines de millions de spectateurs, ont démontré la puissance des réseaux de communication. Les ingénieurs télécoms réfléchissent à la transmission de données numériques, notamment avec les premières expériences de vidéotex. En France, les PTT lancent les études qui mèneront au Minitel, premier réseau grand public avant l’heure d’Internet.

Dans les écoles et universités, l’informatique fait ses premiers pas comme discipline d’enseignement. Les langages BASIC et Logo sont conçus avec un objectif pédagogique. Seymour Papert, au MIT, théorise l’apprentissage par la programmation. Ces réflexions ouvrent un nouveau champ : l’informatique est un outil de calcul, mais aussi un moyen d’apprendre autrement.

Le monde du travail se transforme, les écrans à tube cathodique remplacent peu à peu les fiches cartonnées. Dans les bureaux, les secrétaires découvrent le traitement de texte. Les premières imprimantes à marguerite reproduisent la qualité des machines à écrire, mais avec la souplesse de l’électronique, ce qui modifie les métiers administratifs. Les syndicats s’inquiètent, négocient des accords sur les conditions de travail sur écran, mais la marche vers le tout-numérique est lancée.

La science-fiction s’empare du thème de l’ordinateur. « 2001, l’Odyssée de l’espace » a popularisé l’image de HAL 9000, intelligence artificielle devenue folle. En 1973, le film « Westworld » imagine des robots incontrôlables. Ces œuvres traduisent les espoirs et les craintes suscités par l’informatisation. Simultanément, les premiers jeux vidéo commerciaux comme Pong attirent un public nouveau vers ces machines autrefois réservées aux scientifiques.

La santé n’échappe pas à cette vague. Les hôpitaux s’équipent de systèmes informatiques pour la gestion des patients. Les premiers scanners médicaux, apparus au début de la décennie, produisent des images numériques que seuls des ordinateurs peuvent traiter. La recherche pharmaceutique s’appuie de plus en plus sur la modélisation moléculaire. L’informatique médicale est une nouvelle discipline qui émerge.

Les grandes villes deviennent des laboratoires où s’expérimentent les applications urbaines de l’informatique. La gestion des feux de circulation, l’optimisation des réseaux d’eau ou d’électricité bénéficient des systèmes de contrôle en temps réel. Ces applications exigent des ordinateurs capables de réagir instantanément à leur environnement, stimulant le développement des systèmes embarqués.

Le commerce international se métamorphose avec l’adoption de normes d’échange électronique. Le code-barres fait son apparition dans les supermarchés américains. Les transactions bancaires s’automatisent avec le réseau SWIFT. L’informatisation des chaînes logistiques débute. Ces évolutions accélèrent la mondialisation des décennies suivantes, où les flux d’informations circuleront aussi vite que les marchandises.

Steve Jobs et Steve Wozniak fondent Apple en 1976. Leur Apple I symbolise l’esprit de cette nouvelle informatique : artisanale, personnelle, presque rebelle. Au même moment, Bill Gates et Paul Allen créent Microsoft. Ces jeunes entrepreneurs ne ressemblent en rien aux dirigeants des grandes entreprises informatiques traditionnelles. Ils inaugurent une nouvelle ère où l’ordinateur est un produit de consommation et un objet de passion.

La recherche fondamentale avance à grands pas. Les travaux d’Alan Kay chez Xerox PARC sur les interfaces graphiques permettent une informatique plus intuitive. Les créations de Dennis Ritchie et Ken Thompson aux Bell Labs, le langage C et le système UNIX, initient l’informatique moderne. Ces innovations, d’abord confidentielles, changeront le visage de l’industrie au cours des décennies suivantes.

À la fin des années 1970, les premiers clubs d’informatique amateur rassemblent des passionnés autour de machines rudimentaires comme le MITS Altair 8800. Ces communautés développent une culture du partage contrastant avec le monde fermé de l’informatique professionnelle. Les magazines spécialisés publient des programmes que les lecteurs recopient ligne à ligne. Personne n’imagine encore que ces pratiques confidentielles représentent l’informatique du XXIe siècle.

L’ordinateur, autrefois outil réservé aux grandes organisations, amorce sa mue vers un compagnon quotidien durant la décennie 1970. Les idées qui émergeront au cours de cette période façonneront notre monde numérique pour les 50 années suivantes, dessinant une société où le traitement de l’information est aussi essentiel que la production de biens matériels.

Haut de page

ALOHAnet

En septembre 1968 à l’université d’Hawaï, Norman Abramson se trouve face à un problème qui semble presque insurmontable. Comment connecter entre eux des ordinateurs dispersés sur plusieurs îles, séparés par des centaines de kilomètres d’océan ? Les câbles coûtent une fortune, les liaisons téléphoniques sont lentes et peu fiables. Pourtant, l’université a besoin de relier son campus principal de Manoa, près d’Honolulu, aux centres de recherche disséminés sur Oahu, Kauai, Maui et la grande île d’Hawaï.

L’idée qui germe dans son esprit paraît un peu folle : utiliser les ondes radio pour faire communiquer les ordinateurs. En 1968, personne n’avait encore tenté pareille aventure. Les communications informatiques se cantonnaient aux connexions directes par câble, point à point, selon des schémas hérités du télégraphe et du téléphone. Mais Hawaï impose ses propres règles. La géographie volcanique de l’archipel transforme ce qui ailleurs serait une contrainte en laboratoire d’innovation.

Le système qu’imagine Abramson repose sur une architecture d’une simplicité trompeuse. Au cœur du dispositif trône un IBM 360/65 équipé de 750 Ko de mémoire, installé sur le campus principal. Cette machine dialogue avec un ordinateur plus modeste, un HP 2115A baptisé MENEHUNE, du nom des petits êtres de la mythologie hawaïenne réputés pour accomplir des travaux « impossibles » en une nuit. Le MENEHUNE gère les émissions radio grâce à deux canaux UHF de 100 kHz : l’un diffuse à 407,350 MHz vers les terminaux distants, l’autre collecte leurs réponses à 413,475 MHz. Chaque canal fonctionne à 24 000 bauds.

Mais la véritable audace du projet réside ailleurs. Dans le sens descendant, du MENEHUNE vers les terminaux, tout est classique : une seule source émet, les destinataires écoutent, l’ordonnancement suit des règles de priorité bien établies. C’est dans l’autre sens que l’innovation surgit. Comment gérer les communications quand des dizaines de terminaux veulent tous parler ensemble sur le même canal ? Les techniques traditionnelles de multiplexage imposeraient à chaque terminal une tranche horaire ou fréquentielle fixe, qu’il l’utilise ou non. Un gaspillage inadmissible pour un trafic informatique fait de courtes rafales séparées par de longues pauses.

La solution proposée par l’équipe d’Abramson brise tous les codes établis. Chaque terminal émet quand bon lui semble, sans demander l’autorisation à quiconque. Les données voyagent dans des paquets de taille standardisée : 80 caractères de 8 bits pour l’information utile, plus 64 bits pour l’identification, le contrôle et la détection d’erreurs. Quand le MENEHUNE reçoit un paquet intact, il envoie un accusé de réception. Sinon l’émetteur attend un délai aléatoire et recommence. Cette approche accepte l’inacceptable : les collisions entre paquets. Deux terminaux qui émettent simultanément voient leurs signaux se mélanger, créant un charabia incompréhensible pour le récepteur. Plutôt que de chercher à éviter ces collisions à tout prix, ALOHA les considère comme un mal nécessaire, le prix à payer pour une simplicité de fonctionnement inégalée.

Les calculs mathématiques d’Abramson révèlent les limites de cette philosophie. Le système exploite au mieux que 18,4% de la capacité théorique du canal, performance atteinte quand la charge offerte représente exactement la moitié de cette capacité. Au-delà, les collisions se multiplient, les retransmissions s’accumulent, et le réseau s’effondre dans un chaos de signaux parasites.

ALOHA prouve qu’un système peut fonctionner sans chef d’orchestre, sans coordination centrale, sans planning préétabli. Les terminaux se débrouillent entre eux, s’accommodent des conflits, trouvent leur équilibre dans ce qui ressemble à une anarchie organisée.

En 1973, un jeune ingénieur de Xerox nommé Robert Metcalfe visite l’installation. Il comprend que les principes d’ALOHA peuvent s’adapter à d’autres supports que les ondes radio. Quelques années plus tard naîtra Ethernet, transposition filaire des idées d’Abramson qui révolutionnera les réseaux locaux.

Entre-temps, les chercheurs d’Hawaï affinent leur création. Ils inventent « ALOHA discrétisé », variante où les émissions ne peuvent débuter qu’à des instants prédéfinis, comme les coups d’un métronome invisible. Cette synchronisation double l’efficacité théorique, portant le rendement maximal à 37% de la capacité du canal. L’amélioration ouvre la voie à une famille entière de protocoles dérivés.

Le succès du projet illustre une vérité sur l’innovation technologique. Souvent, les contraintes les plus sévères engendrent les solutions les plus créatives. Hawaï ne pouvait pas se contenter de recopier les recettes continentales. L’isolement géographique força les chercheurs à repenser de fond en comble les communications informatiques. Ce faisant, ils découvrirent des principes universels qui dépassaient leur situation particulière.

Les réseaux Wi-Fi, les communications satellitaires, les systèmes cellulaires, tous incorporent des mécanismes inspirés du protocole hawaïen. L’idée qu’un réseau puisse fonctionner sans contrôle central strict, en gérant les conflits plutôt qu’en les évitant, est devenue un paradigme de l’informatique distribuée. Quarante ans après sa création, ALOHA conserve sa force d’inspiration. Non pas tant par ses performances brutes, largement dépassées par les standards actuels, que par l’audace conceptuelle dont il témoigne. Parfois, il suffit de laisser les machines se débrouiller entre elles.

Haut de page

FORTH

Charles « Chuck » Moore travaillait au MIT, puis au Stanford Linear Accelerator Center. L’informatique de l’époque le frustrait car FORTRAN et ALGOL monopolisaient l’attention, mais ces langages l’obligeaient à passer un temps fou entre l’écriture du code, sa compilation et son exécution. Il cherchait quelque chose de plus direct, de plus immédiat.

Sa solution prit la forme d’un interpréteur de texte qu’il écrivit en ALGOL. Le principe était que tout ce qu’on lui donnait était soit un nombre, soit un mot représentant une commande. Fini les phases séparées d’édition, compilation et exécution. Tout se passait de manière interactive, dans l’instant. Il inventa des mots spéciaux comme « : » pour dire au système qu’il fallait commencer à compiler le code qui suivait, et «; » pour lui dire de revenir au mode interprétation normal. Quand le compilateur rencontrait un tel bloc, il stockait ce « mot » – l’équivalent de nos fonctions actuelles – dans un dictionnaire pour pouvoir le réutiliser plus tard.

L’architecture de FORTH repose sur deux piles qui travaillent ensemble. La première stocke les valeurs temporaires et les paramètres, la seconde gère les cadres de pile. Cette approche donne un code compact et rapide, mais surtout extensible à volonté. En 1970, Moore travaillait sur un ordinateur IBM de troisième génération qui limitait les noms à cinq caractères maximum. Il baptisa donc son langage « FORTH », allusion en anglais à une quatrième génération de langage de programmation.

L’Observatoire National de Radioastronomie en Arizona accueillit la première version publique de FORTH en 1971. Le système servait à récupérer et analyser les données tout en pilotant le radiotélescope en temps réel. La communauté astronomique adopta cette technologie. Moore créa ensuite plusieurs versions : MiniFORTH pour les mini-ordinateurs, MicroFORTH pour les microcontrôleurs. Chaque variante s’adaptait aux contraintes spécifiques de son environnement.

FORTH utilise la notation postfixe, aussi appelée polonaise inverse. Les opérateurs viennent après leurs opérandes. L’expression 1 2 + signifie qu’on additionne 1 et 2. Cependant le fonctionnement est interactif : quand l’utilisateur tape cette expression, l’interpréteur pousse d’abord 1 sur la pile, ensuite 2, avant d’exécuter « + » qui récupère ces deux valeurs, les additionne et remet le résultat sur la pile.

La vraie force de FORTH vient de sa capacité à grandir. Les programmeurs créent de nouvelles commandes, des « mots », qui deviennent partie intégrante du langage. Cette extensibilité adapte FORTH aux besoins précis de chaque application. Le langage mélange des calculs de bas niveau avec un mécanisme puissant pour déclarer des fonctions. Une fois compilés, les programmes FORTH tournent presque aussi vite que de l’assembleur écrit à la main. Avec un compilateur qui optimise agressivement, FORTH est très performant dans le traitement numérique. Pour les systèmes embarqués, le matériel prototype ou les chargeurs d’amorçage, il suffit d’un noyau compilateur minimal. Une fois ce noyau disponible, on peut construire un compilateur FORTH complet en n’utilisant que FORTH.

La philosophie minimaliste de FORTH se retrouve dans la gestion de la mémoire. Le langage ne propose que le stockage de valeurs simples ou doubles, généralement des entiers. Pour construire un tableau, il faut allouer une variable et incrémenter un pointeur interne dans le dictionnaire afin de réserver plus d’espace. Un tableau en FORTH n’est qu’une région de mémoire sans documentation particulière. Le langage n’offre pas de tas (heap) natif non plus, les programmeurs écrivent leurs propres routines de gestion mémoire.

Les applications concrètes de FORTH se multiplient. Sun Microsystems l’intègre dans le firmware OpenBoot de ses stations de travail. WearLogic a développé un portefeuille électronique basé sur un microcontrôleur AVR programmé en FORTH. AEMS (Advanced Energy Monitoring Systems) emploie FORTH pour son Yatesmeter, un instrument sophistiqué qui surveille les pompes en temps réel. Ces réussites montrent que FORTH garde sa pertinence pour les systèmes embarqués et le contrôle matériel.

L’évolution technologique n’a pas affaibli l’intérêt pour FORTH. Son approche interactive et sa capacité à construire des abstractions par étapes en font un outil pédagogique de valeur. Des projets comme pbFORTH pour les robots LEGO Mindstorms révèlent son potentiel pour enseigner la programmation. Sa syntaxe particulière et son modèle mental différent des langages conventionnels offrent aux étudiants une autre perspective sur les concepts de programmation.

La communauté FORTH est active. Des groupes d’utilisateurs existent encore dans plusieurs pays, des conférences comme euroFORTH se tiennent régulièrement. Les développements récents incluent GNU Gforth, une version portable qui respecte les standards, et VFX Forth, un compilateur optimisant moderne qui accélère les programmes FORTH d’un facteur trois à cinq par rapport aux compilateurs classiques.

Plutôt que d’imposer une abstraction entre l’homme et la machine, FORTH crée un lien direct avec le matériel tout en autorisant la construction d’abstractions utiles.

Haut de page

Pascal

Niklaus Wirth travaille à l’École Polytechnique Fédérale de Zurich. Une frustration le saisit face aux langages de programmation existants. Ces outils lui semblent incohérents, leurs constructions défient toute explication logique. Pour un esprit habitué au raisonnement systématique, méthodique et ordonné, cette situation est insupportable.

Il conçoit Pascal avec deux ambitions distinctes. Il veut d’abord créer un langage vraiment adapté à l’enseignement, où chaque concept se reflète naturellement dans la syntaxe. Mais il refuse de sacrifier l’efficacité sur l’autel de la pédagogie : ses installations devront tourner de manière fiable sur les machines de l’époque.

L’héritage d’Algol 60 pèse lourd dans cette démarche. Ce langage répond mieux que tout autre aux exigences pédagogiques du moment. Wirth reprend ses principes de structuration et la forme de ses expressions. Pourtant, il résiste à la tentation de faire de Pascal un simple sous-ensemble d’Algol 60, car certains mécanismes de déclaration l’empêcheraient d’intégrer les nouvelles fonctionnalités qu’il a en tête. Ces fonctionnalités concernent principalement les structures de données, dont l’absence dans Algol 60 explique largement pourquoi ce langage est cantonné à un domaine d’application restreint. En introduisant les enregistrements et les fichiers, Wirth espère que Pascal pourra s’attaquer aux problèmes de gestion commerciale, ou du moins servir à les démontrer efficacement dans un cours de programmation.

La première version paraît en 1970, accompagnée d’une installation sur les ordinateurs CDC 6000. Trois années d’utilisation intensive, d’enseignement et d’expérimentation donnent naissance à une version révisée en 1972. Les changements reflètent les leçons apprises sur le terrain : les paramètres constants cèdent la place aux paramètres de valeur, la structure de classe disparaît, la gestion des fichiers se trouve repensée.

La normalisation arrive en 1983 avec le standard ISO 7185, qui définit le Pascal non étendu. Une mise à jour a lieu en 1990, l’année où naît le standard ISO 10206, le Pascal étendu. Cette distinction répond à la tension qui consiste à garder la simplicité du langage original tout en répondant aux besoins grandissants de la programmation moderne.

Le Pascal étendu apporte une séparation entre la modularité et la compilation. Chaque module permet d’exporter des interfaces contenant valeurs, types, schémas, variables, procédures et fonctions. Le système contrôle finement la visibilité, et les chaînes de caractères reçoivent un traitement unifié. Chaînes de longueur fixe, valeurs de caractères et chaînes de longueur variable sont compatibles entre elles. L’opérateur de concaténation les combine librement, tandis que le programmeur spécifie les longueurs maximales des chaînes variables. La liaison de variables constitue une innovation remarquable. Une variable déclarée comme liaison peut se connecter au stockage de fichiers, à l’horloge temps réel ou aux lignes de commande. Cette restriction limite les connexions externes aux seules variables explicitement prévues à cet effet.

L’émergence de la programmation orientée objet pousse certains compilateurs Pascal vers ce nouveau paradigme. En 1993, le comité des standards Pascal publie un rapport technique sur les « Extensions orientées objet de Pascal ». Les membres de ce comité représentent un éventail surprenant d’organisations : de l’université Pace à l’US Air Force, d’Apple Computer à Microsoft et Digital Equipment Corporation.

Pascal marque l’histoire de la programmation par sa syntaxe limpide et sa philosophie du typage fort. Toute une génération de programmeurs découvre à travers lui les principes de la programmation structurée et de la conception rigoureuse. Son usage massif dans l’enseignement durant les années 1970 et 1980 forge des habitudes de programmation disciplinées qui lui survivront longtemps. Le succès commercial accompagne le succès pédagogique, notamment grâce à Turbo Pascal de Borland. Ces versions commerciales enrichissent souvent le langage standard d’extensions pratiques, sans jamais trahir la clarté et la rigueur qui caractérisent l’original.

Le langage Pascal porte l’idée qu’un programme doit être une construction mathématique précise, dont la correction se démontre formellement. Cette vision contraste avec les tendances actuelles qui privilégient la rapidité de développement et la flexibilité, parfois au détriment de la rigueur formelle, et donc parfois de la sécurité. Wirth avait peut-être vu juste : dans un monde où les logiciels gouvernent nos vies, la discipline qu’il prônait n’a jamais été aussi nécessaire.

Haut de page

DEC PDP-11

En 1970, Digital Equipment Corporation bouleverse le monde des mini-ordinateurs avec le PDP-11. Cette machine marque une étape décisive dans l’évolution informatique, non pas par sa puissance brute, mais par une vision architecturale : l’UNIBUS. Ce bus unifié connecte processeur, mémoire et périphériques sur une interface commune, là où les machines précédentes multipliaient les connexions spécialisées. L’innovation paraît technique, elle transforme pourtant radicalement la conception des systèmes informatiques.

L’histoire du PDP-11 débute vers 1968 dans les laboratoires de DEC. Gordon Bell, Harold McFarland et Roger Cady dirigent une équipe confrontée aux limites des mini-ordinateurs de l’époque. Espace d’adressage étriqué, registres en nombre insuffisant, absence de pile matérielle, gestion approximative des interruptions... Ces défauts handicapent le développement d’applications sophistiquées, alors les ingénieurs explorent différentes pistes. Un prototype appelé PDP-X voit le jour, suivi d’une version DCM (Desk Calculator Machine). Ces expérimentations convergent finalement vers l’architecture définitive du PDP-11.

Le résultat dépasse les attentes. Le PDP-11 propose un jeu d’instructions orthogonal, les mêmes modes d’adressage fonctionnent avec toutes les instructions. Ses huit registres généraux offrent une souplesse inédite, l’un servant de pointeur de pile, l’autre de compteur de programme. L’adressage direct des octets, rarissime, facilite le traitement des caractères et des données de longueur variable. Ces innovations techniques se traduisent par une programmation plus naturelle et plus efficace.

Le marché répond avec enthousiasme. Entre 1970 et 1975, DEC écoule plus de 20 000 exemplaires du PDP-11. Ce succès s’appuie sur la modularité de l’architecture qui autorise une gamme étendue du petit système à quelques milliers de dollars jusqu’aux configurations à plusieurs centaines de milliers de dollars. Les progrès technologiques accompagnent cette montée en puissance. Les premiers modèles s’appuient sur des mémoires à tores magnétiques, bientôt remplacées par les mémoires à semi-conducteurs MOS, puis par les mémoires cache rapides en technologie bipolaire.

La famille s’étoffe. Le modèle initial PDP-11/20 cède la place au 11/45 en 1972, machine plus robuste qui gagne en performances. Le 11/70 arrive en 1975 avec sa mémoire cache et sa capacité d’adressage étendue à 4 mégaoctets. À l’opposé, le LSI-11 de 1975 exploite les circuits intégrés à large échelle pour miniaturiser et réduire les coûts. De cette diversité, le PDP-11 va conquérir des territoires variés tels que le calcul scientifique, la gestion d’entreprise, le contrôle de processus industriels ou les communications.

DEC comprend qu’un ordinateur sans système d’exploitation est une coquille vide. L’entreprise développe plusieurs environnements logiciels adaptés aux besoins spécifiques : RT-11 pour les applications temps réel simples, RSX-11M pour le multitâche temps réel complexe, RSTS/E pour le temps partagé interactif. Ces systèmes matures, accompagnés d’outils de développement de qualité, facilitent l’adoption du PDP-11 par une clientèle diverse.

L’introduction de DECnet en 1975 interconnecte les PDP-11 entre eux et avec d’autres machines DEC selon une approche distribuée qui tranche avec la philosophie hiérarchique d’IBM. DECnet déploie une architecture réseau complète, de la couche physique aux applications. Ses évolutions successives enrichissent ses capacités : la Phase II de 1978 établit des passerelles vers les VAX, la Phase III introduit le routage adaptatif.

L’architecture du PDP-11 inspire directement les processeurs futurs comme le Motorola 68000. La concurrence reprend UNIBUS comme un standard de facto. L’organisation en registres généraux et les modes d’adressage sophistiqués du PDP-11 imprègnent la conception des processeurs modernes. Des mécanismes comme l’adressage relatif au compteur de programme ou l’auto-incrément/auto-décrément se généralisent dans l’industrie.

Le PDP-11 trouve aussi sa place dans l’histoire d’UNIX. Ken Thompson et Dennis Ritchie choisissent cette machine chez Bell Labs pour développer leur système d’exploitation. La clarté et la cohérence de l’architecture du PDP-11 en font un excellent support pédagogique. De nombreux manuels universitaires l’utilisent comme référence, formant ainsi toute une génération d’informaticiens à ses concepts.

Mais le temps révèle progressivement les faiblesses de cette architecture. L’espace d’adressage de 16 bits limite la mémoire à 64 kilo-octets par programme, contrainte qui pèse de plus en plus lourd avec la sophistication croissante des applications. DEC ajoute des mécanismes de gestion mémoire pour contourner cette limite, au prix d’une complexité accrue. La prolifération des variantes du jeu d’instructions, notamment les différentes options de calcul flottant, complique la portabilité des logiciels.

Le déclin s’amorce dans les années 1980. Les micro-ordinateurs 16 bits gagnent en puissance tout en restant beaucoup moins chers. Surtout, DEC lance le VAX qui offre un espace d’adressage 32 bits et relègue le PDP-11 au second plan. La production se maintient néanmoins jusqu’aux années 1990 pour des applications spécialisées qui n’exigent pas les capacités du VAX.

Le PDP-11 aura marqué son temps. Il établit DEC comme un acteur majeur de l’industrie informatique, et démontre qu’une architecture bien pensée est à même de transformer un marché et influencer l’évolution technologique.

Haut de page

B-tree

Quand on évoque l’informatique moderne, certaines innovations restent dans l’ombre malgré leur omniprésence. L’histoire du B-tree commence à la fin des années 1960. Les ordinateurs jonglent déjà avec des volumes de données considérables, mais l’accès à ces informations stockées sur disques magnétiques pose un véritable casse-tête. Chaque lecture nécessite des mouvements mécaniques coûteux en temps, et les programmeurs cherchent désespérément des moyens d’organiser leurs index pour limiter ces accès. Chez Sperry Univac, Howard Chiat et Meyer Schwartz planchent sur ce défi en collaboration avec l’université Case Western Reserve. Ils ne sont pas seuls : Bruce Cole, Stewart Radcliffe et Michael Kaufman mènent des recherches parallèles chez Control Data Corporation, épaulés par l’université Stanford.

Ces travaux dispersés trouvent leur aboutissement théorique grâce à Rudolf Bayer et Edward McCreight. Aux Boeing Scientific Research Labs, ces deux chercheurs formalisent les concepts émergents et publient en 1972 leur article Organization and maintenance of large ordered indices. Ce texte pose les bases mathématiques du B-tree et révolutionne la gestion des index.

Le génie du B-tree réside dans sa simplicité conceptuelle. Là où les arbres binaires classiques limitent chaque nœud à deux fils, le B-tree autorise des nœuds plus larges contenant plusieurs clés. Cette liberté architecturale transforme radicalement l’efficacité des opérations. L’arbre maintient automatiquement son équilibre lors des insertions et suppressions, garantissant une hauteur logarithmique qui minimise les accès disque. Imaginez un index téléphonique intelligent qui se réorganise constamment pour que chaque recherche nécessite un nombre d’étapes identique, quelle que soit la taille de l’annuaire.

D’autres variantes émergent les années suivantes. Donald Knuth propose le B+-tree, une modification astucieuse qui concentre toutes les données dans les feuilles de l’arbre. Les nœuds internes ne servent plus qu’à l’indexation, simplifiant considérablement le parcours séquentiel des données. Cette variante devient la référence dans les systèmes de gestion de bases de données. En 1977, Bayer s’associe à K. Unterauer pour créer le Prefix B+-tree. Leur innovation consiste à ne stocker que les préfixes nécessaires pour distinguer les entrées, économisant l’espace et augmentant le facteur de branchement.

L’adoption industrielle suit naturellement. IBM intègre les B-trees dans VSAM (Virtual Storage Access Method), démontrant leur viabilité commerciale. Le système exploite une variante du B+-tree et introduit des optimisations comme la réplication des nœuds de séquence sur les cylindres du disque. Cette implémentation concrète prouve que la théorie permet effectivement améliorer les performances en production.

Les besoins du multi-utilisateur émergent, et la nécessité pour plusieurs programmes de modifier simultanément la même structure sans la corrompre. Bayer et Mario Schkolnick résolvent cette équation en 1977 avec des protocoles de verrouillage sophistiqués. Leur système autorise plusieurs lecteurs simultanés tout en gérant proprement les modifications concurrentes, une prouesse technique dont les bases de données modernes héritent.

La recherche théorique accompagne ces développements pratiques. Raymond A. Miller étudie en 1977 la construction d’arbres optimaux, tandis qu’Andrew Chi-Chih Yao analyse en 1978 le comportement probabiliste des nœuds. Ses calculs révèlent un taux d’occupation moyen de 69%, un chiffre qui aide les concepteurs à dimensionner leurs systèmes.

L’influence des B-trees dépasse leurs origines. MySQL les exploite dans son moteur InnoDB, PostgreSQL s’en sert pour ses index, et de nombreux systèmes de fichiers comme NTFS, HFS+ ou Ext4 organisent leurs données selon ces principes. Cette ubiquité témoigne de leur robustesse conceptuelle.

Les années 1990 et 2000 apportent de nouveaux problèmes. Les architectures multicœurs et les hiérarchies mémoire complexes exigent des adaptations. Les chercheurs développent des variantes optimisées pour les caches processeur et créent le B𝜀-tree spécifiquement pour les disques SSD. Ces évolutions montrent comment une idée est capable de s’adapter aux contraintes technologiques émergentes.

Le Big Data et le traitement temps réel poussent encore plus loin les limites. De nouvelles versions améliorent le parallélisme et l’extensibilité, tandis que les recherches actuelles explorent l’optimisation pour les mémoires non volatiles et les architectures distribuées.

Plus de cinquante ans après sa formalisation, le B-tree continue de structurer nos données quotidiennes. Des smartphones aux centres de données, cette invention discrète mais essentielle organise silencieusement l’information numérique.

Haut de page

Disquette

En 1967 chez IBM, David Noble se voit confier la résolution d’un problème apparemment banal : trouver un moyen de charger les programmes dans les nouveaux ordinateurs System/370 au démarrage. Les mémoires à semi-conducteurs qui équipent ces machines perdent leur contenu dès qu’on les éteint, contrairement aux anciennes mémoires à tores magnétiques. Il faut donc un support externe fiable.

L’équipe de Noble, qui rassemble Alan F. Shugart, Herbert Thompson, Ralph Flores et Warren L. Dalziel, commence par explorer les cartouches de bandes magnétiques. Mais Noble a une autre idée : pourquoi ne pas utiliser un disque souple ? Les premiers essais frisent l’amateurisme. L’équipe achète un lecteur de disques vinyle 45 tours dans un magasin et y bricole une tête de lecture magnétique montée sur le bras. Le disque souple repose sur une platine garnie de mousse.

Ces expérimentations révèlent vite un cauchemar car la moindre poussière, le moindre cheveu qui traîne provoque des pertes de données. Pire, ces impuretés « rampent » littéralement sur le disque, poussées par la tête de lecture. L’idée géniale naît d’une soirée de travail entre Herbert Thompson et Ralph Flores. Frustrés par l’approche du tourne-disque, ils abandonnent cette voie et filent dans une épicerie acheter du papier absorbant rose, celui qu’on utilise pour faire le ménage.

En découpant un dossier de classement à la bonne dimension et en y collant ce papier rose, ils créent la première enveloppe protectrice. Ils y pratiquent des ouvertures pour la tête de lecture et le système de fixation centrale. Les problèmes de poussière disparaissent d’un coup. Ce papier rose cédera plus tard sa place à un matériau blanc spécialisé, mais le principe restera inchangé pendant des décennies.

Le premier lecteur de disquettes IBM, baptisé « Minnow », débarque sur le marché en 1971. Il ne sait que lire et équipe les contrôleurs du disque dur IBM 3330 ainsi que certains modèles du System/370. L’année suivante, Memorex frappe un grand coup avec le 651, premier lecteur OEM capable de lire et d’écrire. Wang Laboratories et DEC se l’arrachent pour remplacer leurs vieillissants lecteurs de bandes perforées.

Le véritable tournant arrive en 1973 quand IBM lance son système de saisie de données 3740 équipé du lecteur 33FD. Une seule disquette est désormais en mesure de stocker l’équivalent de 3 000 cartes perforées, réduisant drastiquement la consommation de papier. Sa capacité de stockage de 80 kilo-octets révolutionne les habitudes. L’industrie adopte ce format comme standard de facto. Shugart Associates, la société fondée par Alan Shugart, prend la tête du marché des lecteurs compatibles.

En 1975, le marché s’organise autour de créneaux bien définis. La saisie de données représente 12 500 unités vendues, les terminaux intelligents 10 200, les mini-ordinateurs 3 100, le traitement de texte 800 unités, sans compter d’autres applications émergentes. Un lecteur coûte environ 380 dollars, une somme conséquente.

L’année 1976 marque l’arrivée du format 5,25 pouces, né d’une conversation informelle chez Shugart Associates. Les clients se plaignent de l’encombrement des lecteurs 8 pouces qui pèsent 17 kg chacun. L’équipe développe en six semaines un prototype aux dimensions d’une serviette de cocktail. Cette innovation conserve les performances techniques du format 8 pouces dans un boîtier adapté aux ordinateurs de bureau qui commencent à émerger.

IBM riposte en 1977 avec le modèle 53FD, premier lecteur double-face qui double la capacité tout en gardant la compatibilité avec les disques simple face. L’adaptation de cette technologie se révèle un parcours du combattant. Shugart Associates manque de faire faillite avec ses têtes de lecture double face inspirées des disques durs Winchester. C’est finalement Tandon qui trouve la solution viable avec une tête fixe et une tête mobile.

Cette année 1977 voit aussi naître l’Apple II, premier ordinateur personnel produit en masse équipé de lecteurs de disquettes au format 5,25 pouces. Les ordinateurs personnels adoptent cette configuration comme une norme qui contribue à standardiser les supports de stockage. L’industrie du logiciel peut enfin décoller.

La genèse du format 5,25 pouces révèle des anecdotes savoureuses. Wang Laboratories rêvait d’un ordinateur de bureau avec un lecteur à 100 dollars. Steve Jobs, inconnu du grand public, débarquait régulièrement chez Shugart Associates pour obtenir un lecteur abordable destiné à remplacer les cassettes audio qu’Apple utilisait pour stocker ses données. L’équipe de Don Massaro et Jimmy Adkisson choisit délibérément la dimension de 5,25 pouces car elle représentait la plus petite taille qui ne permettait pas de glisser la disquette dans une poche, évitant ainsi les dommages par négligence.

Le format 8 pouces connaît son âge d’or au début des années 1980 avec 1,5 million d’unités produites annuellement. L’industrie rassemble 25 fabricants américains, 11 japonais et 8 européens. Les marges s’effritent face à une concurrence féroce, passant de 55% à 40%. Les fabricants japonais, obsédés par la qualité de production, s’imposent progressivement sur le marché mondial.

Le déclin du format 8 pouces s’amorce avec le succès du 5,25 pouces, mais la production se maintient jusqu’à la fin des années 1990. IBM garde des contrats avec YE Data au Japon pour livrer 5 000 à 10 000 lecteurs par an, uniquement destinés à la maintenance d’anciens systèmes encore sous contrat.

Les années 1980 voient cohabiter sur la plupart des ordinateurs personnels un lecteur 5,25 pouces et un lecteur 3,5 pouces. Ce dernier format finit par s’imposer comme nouveau standard. Les années 1990 marquent l’apogée de la disquette 3,5 pouces avec plus de cinq milliards d’unités écoulées chaque année. Mais l’arrivée des CD réinscriptibles, des DVD puis des clés USB sonne le glas de cette technologie. En 2011, Sony, dernier fabricant mondial, tire le rideau sur la production de disquettes.

L’épopée de la disquette raconte en filigrane la transformation complète des supports de stockage informatique. D’un simple outil de chargement de programmes, elle se mue en un périphérique polyvalent qui annonce le stockage amovible moderne. Sans elle, ni l’industrie du logiciel ni la démocratisation de l’informatique personnelle n’auraient pris l’ampleur qu’on leur connaît.

Haut de page

ed

Certains outils marquent leur époque par leur simplicité radicale plutôt que par leur sophistication. L’éditeur ed appartient à cette catégorie d’innovations qui, nées aux Bell Labs au début des années 1970, ont façonné la manière dont nous concevons l’édition de texte. Son développement répond aux contraintes matérielles des terminaux télétype qui ne savaient qu’imprimer une ligne à la fois sur papier, mais sa conception révèle une philosophie qui dépasse ces limitations techniques.

Le génie d’ed réside dans sa capacité à transformer l’édition de texte en un dialogue entre l’utilisateur et la machine. Contrairement aux éditeurs modernes qui exposent l’intégralité du document, ed oblige à penser le texte comme une séquence de lignes numérotées, stockées dans un espace mémoire appelé buffer. Loin d’être une faiblesse, cette abstraction est une force qui contraint l’utilisateur à développer une représentation mentale précise de la structure de son document.

La syntaxe d’ed se distingue par sa concision. Les commandes a, i, d, s et p suffisent à couvrir la plupart des opérations d’édition. Derrière cette apparente simplicité se cache un système d’adressage d’une richesse remarquable. L’utilisateur est apte à désigner la ligne courante par un simple point, la dernière ligne par un dollar, ou spécifier des plages entières grâce aux expressions régulières. Cette approche révolutionne la manipulation de texte en introduisant une grammaire formelle pour décrire les motifs textuels.

Les expressions régulières constituent peut-être l’héritage le plus durable d’ed. Ces motifs, qui décrivent des structures de texte plutôt que des chaînes littérales, transforment la recherche et la modification en opérations logiques. Le point qui représente n’importe quel caractère, l’astérisque qui quantifie les répétitions, les crochets qui définissent des ensembles, autant de concepts qui inspireront plus tard les langages de programmation et les outils d’analyse textuelle. La commande de substitution s illustre cette puissance puisqu’elle peut transformer des documents entiers en une seule instruction, pourvu que l’utilisateur maîtrise le langage des motifs.

Cette philosophie de l’édition trouve son expression la plus pure dans l’interface minimaliste d’ed. Face à une erreur, l’éditeur se contente d’afficher un laconique ?. Cette parcimonie, qui désarçonne les débutants, reflète une conception où l’outil doit disparaître derrière la tâche. Les créateurs d’ed partaient du principe que l’efficacité naît de la maîtrise, et que la verbosité nuit à la concentration.

Les limites techniques transparaissent dans certaines contraintes, celle des 512 caractères maximum par ligne, ou des 256 caractères pour les commandes globales. Ces restrictions, qui semblent dérisoires aujourd’hui, témoignent de l’ingéniosité nécessaire pour créer des outils puissants avec des ressources limitées. Les programmeurs devaient penser chaque octet, optimiser chaque algorithme.

L’influence d’ed dépasse le domaine de l’édition de texte. L’utilitaire grep tire son nom de la commande g/re/p (recherche globale d’expression régulière et impression), transformant une fonctionnalité d’ed en outil autonome. L’éditeur sed étend la logique d’ed au traitement de flux, tandis que vi conserve ses concepts fondamentaux en les adaptant à l’édition visuelle. Cette généalogie révèle comment les innovations se propagent et évoluent dans l’écosystème UNIX.

ed subsiste dans tous les systèmes UNIX et Linux. Sa présence n’est plus anecdotique dans les environnements contraints, lors de connexions réseau limitées, ou dans les scripts d’administration, ses qualités originelles retrouvent leur pertinence. L’éditeur qui semblait destiné aux musées de l’informatique se révèle parfois l’outil le plus adapté à certaines situations.

La documentation originale d’ed, rédigée par Brian W. Kernighan, fixe les standards de la documentation technique UNIX. Elle combine rigueur théorique et pragmatisme, expliquant ce que fait l’outil et pourquoi il le fait ainsi. Cette approche pédagogique, où chaque concept s’appuie sur des exemples concrets, influence encore la manière dont nous documentons les logiciels.

Haut de page

File Transfer Protocol

En 1971, Internet ressemblait à un terrain technologique où chaque opération simple exigeait de maîtriser des commandes hermétiques. L’idée d’échanger des fichiers entre machines distantes relevait du défi technique. C’est alors que naît le File Transfer Protocol, plus connu sous l’acronyme FTP, avec la publication du RFC 114 par l’Internet Engineering Task Force. Ce document décrit la première version d’un protocole qui va traverser les décennies.

Initialement, le RFC 114 d’avril 1971 proposait une architecture simple à une seule connexion full-duplex pour véhiculer à la fois les commandes et les données. Cette approche directe reflétait l’état des réseaux informatiques. Mais les concepteurs du protocole allaient comprendre les limites de cette approche. Au fil des révisions successives dans les années 1970, une innovation majeure émerge avec la séparation complète du canal de contrôle et du canal de données. Cette architecture, formalisée dans le RFC 765 de juin 1980 puis perfectionnée dans le RFC 959 d’octobre 1985, établit deux connexions TCP distinctes. La première, sur le port 21, sert uniquement aux échanges de commandes entre le client et le serveur. La seconde, traditionnellement sur le port 20, se consacre au transfert effectif des fichiers. Cette évolution, en apparence anodine, cache une intelligence remarquable. Si le transfert plante, la connexion de contrôle reste active et les messages d’erreur continuent de circuler.

Le protocole se répand dans les universités américaines. Les étudiants découvrent qu’ils peuvent déposer leurs devoirs sur des serveurs distants, les développeurs distribuent leurs logiciels, et les administrateurs système synchronisent leurs données entre machines. FTP rejoint les piliers d’Internet aux côtés du courrier électronique et de l’accès distant.

Mais FTP cache des subtilités. Le protocole propose deux modes de fonctionnement qui reflètent l’évolution des architectures réseau. Le mode actif, implémenté en premier, fait que le serveur initie la connexion de données vers le client. Cette approche fonctionnait parfaitement dans les premiers temps d’Internet, quand les machines étaient directement connectées au réseau. L’arrivée des pare-feux et de la translation d’adresses réseau a tout changé. Comment un serveur peut-il établir une connexion vers un client caché derrière un NAT ? Le mode passif inverse la logique : c’est le client qui établit les deux connexions. Cette évolution illustre parfaitement comment les protocoles s’adaptent aux contraintes techniques émergentes.

La distinction entre mode ASCII et mode binaire trahit l’héritage des premiers systèmes informatiques. UNIX terminait ses lignes par un caractère, Windows par deux, et Mac par un autre encore. Le mode ASCII de FTP convertit automatiquement ces marqueurs selon le système destinataire. Le mode binaire, lui, copie le fichier bit par bit sans aucune transformation. Bien qu’archaïque en apparence aujourd’hui, cette différenciation témoigne de la diversité des systèmes que FTP devait relier.

L’authentification anonyme constitue l’une des innovations les plus démocratiques de FTP. Plutôt que d’obliger chaque utilisateur à créer un compte, le protocole accepte le nom d’utilisateur « anonymous » avec une adresse électronique en guise de mot de passe. Cette fonctionnalité a révolutionné la distribution de logiciels libres et de documents publics. Parallèlement, FTP supporte l’authentification classique par nom d’utilisateur et mot de passe pour les accès restreints.

La sécurité s’impose progressivement comme un enjeu critique. FTP, dans sa version originale, transmet tout en clair : identifiants, commandes, et données. Un espion placé sur le réseau est susceptible de capturer les mots de passe ou le contenu des fichiers échangés. Cette faiblesse stimule le développement d’extensions sécurisées. FTPS encapsule FTP dans SSL ou TLS, soit de manière implicite sur le port 990, soit de manière explicite en négociant le chiffrement sur une connexion standard. SFTP, malgré son nom, constitue en réalité un protocole distinct basé sur SSH qui offre une alternative moderne et sécurisée.

L’intégration de FTP dans les systèmes d’exploitation révèle son statut de protocole fondamental. UNIX intègre nativement des clients et serveurs en ligne de commande. Windows incorpore le support FTP dans son explorateur de fichiers, démocratisant l’accès au protocole. Des logiciels comme FileZilla enrichissent l’expérience utilisateur avec des interfaces graphiques intuitives tout en respectant scrupuleusement les standards.

La reprise de transfert après interruption transforme l’expérience utilisateur : plus besoin de recommencer entièrement le téléchargement d’un fichier de plusieurs gigaoctets après une coupure réseau. Le support IPv6 et les extensions pour les fichiers volumineux modernisent le protocole. Chaque évolution préserve la compatibilité avec l’existant, principe cardinal de la conception des protocoles Internet.

Les failles de sécurité de FTP sensibilisent la communauté technique à l’importance du chiffrement. Les complications du mode actif avec les pare-feux alimentent la réflexion sur l’architecture des protocoles réseau. La gestion de deux connexions simultanées enrichit la compréhension des défis de sécurisation des communications.

L’émergence du stockage cloud et des protocoles web modernes grignote progressivement les parts de marché de FTP. HTTPS s’impose pour de nombreux usages grand public grâce à sa simplicité et sa sécurité intégrée. Pourtant, FTP conserve sa pertinence dans certains contextes professionnels, particulièrement pour l’administration de serveurs web et la maintenance de sites Internet.

Cette longévité s’explique par certaines qualités, dont la simplicité du protocole, sa robustesse éprouvée, et sa capacité d’évolution sans rupture de compatibilité. La séparation entre canal de contrôle et canal de données, innovation des années 1970, se révèle précieuse pour la gestion d’erreurs et la reprise de transferts. Les codes de réponse numériques standardisés facilitent l’automatisation et la gestion programmatique. Ces évolutions prouvent qu’un protocole quinquagénaire sait s’adapter aux exigences modernes. FTP illustre parfaitement qu’en informatique, la valeur d’une technologie ne se mesure pas seulement à sa nouveauté, mais à sa capacité d’évolution et à la solidité de ses fondations.

Haut de page

Intel 4004

Le 15 novembre 1971, une petite annonce paraît dans Electronic News. Intel Corporation y présente le 4004, qu’elle décrit comme un « ordinateur microprogrammable sur une puce ». Derrière cette formulation se cache une invention qui va changer le monde : le premier microprocesseur commercial de l’histoire.

Cette innovation naît d’une rencontre improbable entre une startup américaine spécialisée dans les mémoires et une entreprise japonaise de calculatrices. En 1969, Busicom cherche un partenaire pour développer les circuits intégrés de ses futures calculatrices. Intel, fondée l’année précédente par Bob Noyce et Gordon Moore, accepte ce contrat pour équilibrer ses finances en attendant que son activité principale décolle.

Les spécifications initiales de Busicom prévoient douze circuits intégrés différents, chacun dédié à une fonction précise. Trois ingénieurs japonais, dont Masatoshi Shima, débarquent chez Intel en juin 1969 pour superviser le projet. Ted Hoff, douzième employé de la société et responsable des applications, doit faire le lien avec cette équipe venue d’Asie. Il examine le cahier des charges et fronce les sourcils. Le système proposé nécessite trop de connexions entre les puces, ce qui rendra le produit final d’un coût prohibitif. Il propose d’abandonner l’idée de circuits spécialisés pour créer un processeur universel programmable, accompagné de quelques puces de mémoire. L’architecture serait plus simple, moins chère, et surtout infiniment plus flexible.

Stanley Mazor rejoint l’aventure en septembre 1969. Son expérience chez Fairchild dans la conception d’ordinateurs apporte la crédibilité technique nécessaire au projet. Ensemble, Hoff et Mazor peaufinent leur vision et parviennent à convaincre les sceptiques de Busicom. Ils développent un interpréteur de 20 octets pour exécuter des macro-instructions, démontrant ainsi la viabilité de leur approche.

En octobre 1969, lors d’une réunion officielle, Busicom donne son feu vert à la nouvelle architecture d’Intel. Shima prolonge son séjour jusqu’en décembre pour écrire les programmes de base de la calculatrice. Le contrat signé accorde à l’entreprise japonaise l’exclusivité sur ce système. Il n’y a plus qu’à transformer cette belle idée en réalité physique. Or ni Hoff ni Mazor ne maîtrisent la conception de circuits intégrés. Intel recrute Federico Faggin en avril 1970. Cet Italien avait mis au point chez Fairchild la technologie MOS à grille de silicium, indispensable pour atteindre les performances et la densité d’intégration souhaitées.

L’équipe finalise l’architecture du système MCS-4. Quatre circuits composent l’ensemble : le processeur 4004, la mémoire ROM 4001, la RAM 4002 et le registre d’entrée-sortie 4003. Le cœur du système, le 4004, rassemble environ 2 300 transistors sur une puce de 3,0 × 4,0 mm. Il exécute 8 000 instructions par seconde et adresse jusqu’à 4 Ko de ROM et 640 octets de RAM.

La fabrication des premiers prototypes démarre en octobre 1970. Les puces périphériques fonctionnent assez vite. Le 4004 résiste davantage mais exige quelques révisions avant d’atteindre sa maturité en mars 1971. Un mois plus tard, Busicom valide l’ensemble dans sa calculatrice. Intel négocie un coup de maître. En mai 1971, l’entreprise récupère les droits de commercialisation du MCS-4 pour toutes les applications autres que les calculatrices de bureau, en échange d’une baisse des prix pour Busicom. Ed Gelbach, nouveau vice-président marketing, orchestre le lancement officiel du 4004 en novembre 1971.

Le succès dépasse les espérances. Intel enchaîne avec le 8008, premier microprocesseur 8 bits, annoncé en avril 1972. Ces deux processeurs ouvrent deux voies distinctes qui structurent encore aujourd’hui l’industrie des semi-conducteurs : d’un côté les microcontrôleurs intégrés pour l’embarqué, héritiers du 4004, de l’autre les processeurs pour ordinateurs programmables, descendants du 8008.

La postérité du 4004 se mesure à l’aune de chiffres vertigineux. En 1995, vingt-quatre ans après sa naissance, les microcontrôleurs 4 bits représentent la moitié des unités produites dans le monde. L’architecture du 8008 évolue vers le 8080, puis vers les processeurs x86 qui équipent la majorité des ordinateurs personnels actuels.

En 2024, près de 70% des semi-conducteurs fabriqués mondialement sont des microprocesseurs, des microcontrôleurs ou des composants associés. Ce marché pèse plus de 100 milliards de dollars. Des automobiles aux téléphones, des appareils électroménagers aux objets connectés, ces puces issues de l’ADN du 4004 peuplent notre quotidien.

Cette technologie a modifié notre rapport aux machines et transformé notre façon de vivre. Elle illustre parfaitement comment une solution technique élégante à un problème industriel spécifique engendre parfois des bouleversements sociétaux imprévisibles. Le 4004 n’était au départ qu’un composant pour calculatrices japonaises. Il est devenu le fondement de notre civilisation numérique.

Haut de page

Intel 8008

En avril 1972, Intel lança sur le marché l’Intel 8008, premier microprocesseur 8 bits de l’histoire. Cette innovation ne sortait pourtant pas de nulle part. Trois années plus tôt, Computer Terminal Corporation (CTC) cherchait une solution pour moderniser son terminal Datapoint 2200. L’entreprise contacta Intel, société créée seulement un an auparavant par Gordon Moore et Robert Noyce, qui se limitait à la fabrication de mémoires.

CTC avait un problème concret : son terminal utilisait des composants MSI (Medium Scale Integration) dispersés sur plusieurs cartes. L’idée de concentrer toute cette logique sur une seule puce séduisait l’entreprise, qui baptisa ce projet du nom de code 1201. Stan Mazor et Ted Hoff prirent en charge les spécifications fonctionnelles avant de passer le relais à Federico Faggin et Hal Feeney pour la réalisation technique.

L’architecture reproduisait fidèlement celle du processeur CTC existant. Un accumulateur de 8 bits travaillait avec six registres généraux 8 bits (B, C, D, E, H, L). Le processeur gérait un adressage de 14 bits, donnant accès à 16 Ko de mémoire. Son jeu d’instructions restait basique mais couvrait les opérations arithmétiques et logiques courantes, avec une gestion rudimentaire des interruptions. Techniquement, environ 3 500 transistors PMOS gravés à 10 microns s’entassaient dans un boîtier à 18 broches. La fréquence d’horloge atteignait 200 kHz, permettant d’exécuter 60 000 instructions par seconde.

Cette contrainte des 18 broches faillit compromettre le projet. Intel voulait maîtriser ses coûts de production et refusait d’augmenter le nombre de connexions. L’équipe de conception se retrouva dans une impasse technique, se demandant comment faire passer toutes les informations nécessaires avec si peu de connexions disponibles. La solution vint du multiplexage des bus d’adresses et de données, technique qui compliquait l’utilisation mais rendait la fabrication économiquement viable.

Les premiers prototypes sortirent des chaînes de production fin 1971. Hélas, ils révélèrent des défauts de fonctionnement. Les ingénieurs durent corriger les masques de gravure et recommencer la production. Mars 1972 vit enfin naître les premières puces pleinement fonctionnelles, mais CTC avait changé d’avis entre-temps. L’entreprise jugeait désormais le 8008 trop lent et préférait développer sa propre solution en logique TTL.

Intel se retrouvait avec un produit sur les bras mais décida de le commercialiser. Le pari s’avéra payant. Le 8008 trouva sa place dans des terminaux informatiques, des contrôleurs industriels, des instruments scientifiques. Son prix de lancement – 120 dollars pour la version standard, 180 dollars pour la variante rapide – restait abordable pour de nombreux concepteurs.

La création de ce processeur bouscula les habitudes des dessinateurs qui traçaient les masques à la main sur d’immenses feuilles dépassant 1,5 mètre de largeur, à une échelle 500 fois supérieure à la taille réelle du circuit. Les simulations logiques s’effectuaient laborieusement sur les rares ordinateurs centraux disponibles en temps partagé. L’équipe inventa au passage des techniques comme les charges bootstrap pour améliorer les performances électriques du circuit.

Intel ne laissa pas ses clients se débrouiller seuls face à cette technologie inédite. L’entreprise publia des manuels de programmation détaillés, une documentation de référence complète, et proposa des cartes d’évaluation comme la SIM-8. Ces ressources permirent aux ingénieurs de s’approprier les spécificités du microprocesseur.

Kodak intégra le 8008 dans ses photocopieurs, Toledo Scale dans ses balances industrielles. McDonald’s l’utilisa pour ses premiers terminaux de point de vente. Certaines applications continuèrent d’exploiter ce processeur plus de dix ans après sa sortie. L’absence de compatibilité binaire avec les générations suivantes comme le 8080 explique cette fidélité. Plutôt que de tout reprogrammer, beaucoup préféraient conserver leurs développements existants.

Ce petit composant démontra qu’une puce unique pouvait abriter un calculateur complet, produit en série à coût raisonnable. Les concepteurs électroniques commencèrent à voir les choses différemment. L’architecture du 8008, avec ses registres généraux et son multiplexage de bus, influença durablement les générations suivantes de microprocesseurs.

Les ventes restèrent modestes, quelques centaines de milliers d’unités sur toute sa carrière commerciale. Ces chiffres pâlissaient devant ceux du 4004 ou du futur 8080, mais la direction d’Intel hésitait. Elle craignait de devenir concurrente de ses propres clients fabricants d’ordinateurs en se lançant trop franchement sur ce marché. Texas Instruments tenta de créer un rival au 8008 sans y parvenir. Ironiquement, cette société déposa en 1971 le premier brevet couvrant le concept de microprocesseur, alors qu’Intel n’avait protégé que certains aspects techniques spécifiques de sa réalisation. Une bataille juridique qui illustrait la nouveauté radicale de ces technologies.

Les leçons du 8008 nourrirent directement la conception du 8080. Cette fois, les ingénieurs adoptèrent un boîtier à 40 broches qui leur donnait enfin la souplesse nécessaire. Ils conservèrent l’architecture générale mais l’améliorèrent considérablement sur tous les plans.

Toute la famille x86 qui domine le marché des ordinateurs personnels en garde des traces du 8008. Des choix architecturaux comme l’ordre des octets (little-endian) ou l’organisation des registres ont survécu cinquante ans et se retrouvent dans les processeurs les plus modernes. Premier microprocesseur 8 bits jamais commercialisé, le 8008 établit des orientations techniques et commerciales qui façonnèrent l’industrie des semi-conducteurs pour les décennies suivantes. Sa création exigea des innovations en méthodologie et en outillage. Malgré ses limites techniques, il révéla le formidable potentiel des microprocesseurs.

Haut de page

C

Aux Bell Labs, au début des années 1970, l’ambiance n’était pas à l’optimisme. L’entreprise venait de claquer la porte de Multics, ce projet pharaonique mené avec le MIT et General Electric qui avait englouti des budgets considérables sans tenir ses promesses. Déçu, Ken Thompson décida de prendre les choses en main pour créer son propre environnement informatique, selon sa vision personnelle.

Il récupéra un vieux DEC PDP-7, une machine déjà dépassée avec ses maigres 8 Ko de mémoire. Là-dessus, il bâtit les premières versions d’UNIX, d’abord en assembleur. Mais programmer directement en assembleur, c’était l’enfer quotidien. Thompson avait testé Fortran, sans succès. Il créa B, une version allégée de BCPL qui tenait dans les contraintes de mémoire du PDP-7.

Dennis Ritchie arriva dans l’équipe et constata que B montrait ses limites. Entre 1969 et 1973, il entreprit de le faire muer vers quelque chose de plus ambitieux. 1972 fut l’année décisive. Le passage au PDP-11 révéla les faiblesses de B : sa gestion des caractères posait problème, et ses pointeurs généraient des conversions absurdes entre indices de mots et adresses. B ignorait complètement les nombres à virgule flottante, alors que le PDP-11 allait bientôt savoir les manipuler.

Ritchie introduisit d’abord les types avec « New B », ajoutant int et char avec leurs tableaux et pointeurs. Mais c’est avec C que l’idée prit vraiment forme. Le système de types devint sophistiqué, autorisant la composition de structures complexes à partir des types de base. Ritchie eut une intuition géniale pour la syntaxe des déclarations : faire en sorte qu’elle reflète l’usage. Si vous écrivez int *p, c’est parce que *p vous donne un int.

La gestion des tableaux causa des débats. En C, le nom d’un tableau se transforme automatiquement en pointeur vers son premier élément dans les expressions. Cette approche résolvait élégamment le problème des chaînes de caractères tout en préservant le code B existant. Le préprocesseur arriva en 1972-1973, modeste au départ avec juste l’inclusion de fichiers et quelques macros.

En 1973, C était mûr. Ritchie et Thompson s’attaquèrent à la réécriture complète du noyau UNIX. Pari audacieux : personne n’avait encore prouvé qu’un langage de haut niveau pouvait produire du code assez rapide pour un système d’exploitation. Le pari fut gagné. Entre 1973 et 1980, C continua sa croissance : types unsigned et long, union, énumérations, structures devenues citoyens de première classe.

Brian Kernighan et Dennis Ritchie publièrent The C Programming Language en 1978. Ce petit livre blanc, que tout le monde appelait « K&R », devint la bible du langage. Sa clarté remarquable contribua largement à populariser C. Mais le langage manquait d’une norme officielle, et chaque compilateur apportait ses petites variations.

La standardisation s’imposa au début des années 1980. C débordait d’UNIX et colonisait d’autres systèmes. Le comité ANSI X3J11 se forma en 1983 sous l’impulsion de M. D. McIlroy. Fin 1989, la norme ANSI C était prête, adoptée comme standard international ISO/IEC 9899-1990. Le comité resta prudent, n’introduisant qu’une modification majeure : l’intégration des types d’arguments dans les signatures de fonctions. Cette idée, empruntée à C++, renforçait le contrôle de types sans casser l’existant.

L’expansion de C fut fulgurante. Dans les années 1980, des compilateurs apparurent sur pratiquement toutes les architectures et tous les systèmes. Les développeurs de logiciels commerciaux pour micro-ordinateurs l’adoptèrent massivement. Cette réussite tenait à l’équilibre du langage : assez simple pour être maîtrisé, assez proche de la machine pour produire du code efficace, assez abstrait pour la portabilité.

C engendra une descendance prolifique. Bjarne Stroustrup créa C++, et d’autres donnèrent naissance à Objective C et Concurrent C. Par la suite, les langages modernes qui ont repris sa syntaxe et ses concepts sont innombrables. Les pointeurs, le traitement des tableaux, la syntaxe des déclarations de types restent des contributions durables, même si elles font débat.

Le langage a ses défauts. La modularisation des gros systèmes demeure problématique avec sa structure de nommage à deux niveaux seulement. La gestion manuelle de la mémoire dynamique piège régulièrement les programmeurs. Ces faiblesses n’ont pourtant pas empêché le développement de systèmes d’exploitation complets en C.

L’histoire de C montre comment un outil né de nécessités pratiques immédiates devient, par des choix de conception judicieux, un standard qui traverse les époques. Sa longévité dans un univers technologique en perpétuel bouleversement témoigne de la justesse des intuitions de ses créateurs. Plus de cinquante ans après sa naissance, C figure encore parmi les langages les plus utilisés dans la programmation système et embarquée. Go, dont Ken Thompson est le co-créateur, tente de le rattraper.

Haut de page

Prolog

En 1970, Alain Colmerauer ne cherche pas à inventer un nouveau langage de programmation. Ce professeur assistant en informatique à l’Université de Montréal dirige le projet TAUM (Traduction Automatique de l’Université de Montréal) et veut simplement pousser plus loin ses recherches sur le traitement informatique des langues. Deux jeunes enseignants de 25 ans de la toute nouvelle faculté des sciences de Luminy, Robert Pasero et Philippe Roussel, le rejoignent pour deux mois. Ils découvrent les systèmes-Q, un langage que Colmerauer a développé pour son projet de traduction.

Jean Trudel, doctorant canadien sous la direction de Colmerauer, travaille sur la démonstration automatique de théorèmes. Il s’appuie sur l’article fondateur d’Alan Robinson sur le principe de résolution, publié en 1965. Il a l’avantage d’avoir suivi un cours de logique avec Martin Davis à New York et maîtrise déjà l’unification selon une approche moderne où tous les calculs se résument à modifier des pointeurs.

Début 1971, l’équipe se reconstitue à Marseille. Alain Colmerauer obtient un poste de maître de conférences en informatique et Jean Trudel l’accompagne grâce à une bourse de deux ans d’Hydro-Québec. Leur objectif était de réaliser des déductions à partir de textes français. La répartition du travail est telle que Jean Trudel et Philippe Roussel s’attaquent aux déductions, Robert Pasero et Alain Colmerauer au langage naturel. Leur environnement de travail tient du luxe pour la France de l’époque. L’IBM 360-44 de leur département offre près de 900 Ko de mémoire interne, sans mémoire virtuelle. Jean Trudel développe un moniteur interactif et ils monopolisent la machine la nuit.

En juin 1971, l’équipe invite Robert Kowalski, l’un des inventeurs de la SL-resolution. Cette rencontre change tout. Pour la première fois, ils échangent avec un spécialiste capable d’expliquer le principe de résolution, ses variantes et ses raffinements. Kowalski découvre des chercheurs passionnés par ses travaux et déterminés à les appliquer au traitement du langage naturel.

En février 1972, l’Institut de Recherche d’Informatique et d’Automatique (IRIA) leur accorde 122 000 FF pour 18 mois. Cette subvention leur permet d’investir dans un terminal télétype, une liaison dédiée à 300 bauds vers l’IBM 360-67 de Grenoble, et le recrutement d’Henry Kanoui.

L’automne 1972 voit naître le premier système Prolog. Philippe Roussel le développe en Algol-W tandis qu’Alain Colmerauer et Robert Pasero créent en parallèle le système de communication homme-machine en français. L’interaction entre Philippe, qui code Prolog, Alain et Robert, qui programment dans un langage en cours de création, se pérennise. C’est l’épouse de Philippe qui suggère le nom définitif : Prolog, abréviation de « PROgrammation en LOGique ».

Le premier grand programme écrit en Prolog est le système de communication homme-machine. Ses 610 clauses se répartissent ainsi : Alain en écrit 334 pour l’analyse, Robert Pasero 162 pour la partie déductive, et Henry Kanoui développe une morphologie française en 104 clauses. Cette morphologie gère les liens entre singulier et pluriel de tous les noms communs et tous les verbes, réguliers et irréguliers, à la troisième personne du singulier du présent.

La reconnaissance officielle arrive en 1973. Le CNRS constitue une « équipe de recherche associée » baptisée « Dialogue homme-machine en langage naturel » et accorde 39 000 FF pour la première année. Les utilisateurs de la version préliminaire de Prolog ont suffisamment programmé pour que leur expérience nourrisse une deuxième version, orientée vers un véritable langage de programmation et non plus seulement un système déductif automatisé.

Entre juin et décembre 1973, trois étudiants en DEA – Gérard Battani, Henry Méloni et René Bazzoli – écrivent l’interpréteur en FORTRAN et son superviseur en Prolog. Cette version introduit toutes les caractéristiques de base des Prolog actuels. C’est aussi à cette période que disparaît la vérification d’occurrence (occur check), jugée trop coûteuse.

La diffusion commence vraiment en 1974-1975. David Warren séjourne à Marseille de janvier à mars 1974 et utilise Prolog pour écrire Warplan, son système de génération de plans. La version interactive de Prolog qui fonctionne à Grenoble via télétype suscite de nombreuses demandes. Gérard Battani et Henry Méloni croulent sous les distributions. Ils expédient Prolog à Budapest, Varsovie, Toronto, Waterloo et se déplacent à Édimbourg pour aider David Warren à l’installer sur un PDP 10. Hélène Le Gloan, ancienne étudiante, l’installe à l’Université de Montréal. Michel Van Caneghem fait de même à l’IRIA à Paris avant de rejoindre l’équipe. Maurice Bruynooghe emporte Prolog à Louvain après trois mois à Marseille.

En 1975, toute l’équipe participe au portage sur un mini-ordinateur 16 bits, le T1600 de Télémécanique. La machine ne dispose que de 64 Ko et nécessite un système de gestion de mémoire virtuelle spécifique. Pierre Basso s’attaque à cette tâche et remporte le concours de la séquence d’instructions la plus courte qui réalise un adressage sur 32 bits tout en testant le défaut de page. Chaque membre du laboratoire traduit alors deux pages de FORTRAN en langage machine. Les fragments réassemblés fonctionnent. Après cinq ans, ils possèdent enfin leur propre machine et leur Prolog tourne, lentement, mais il tourne.

L’histoire de la naissance de Prolog s’achève fin 1975, mais son influence perdure. L’article d’Alan Robinson de janvier 1965, « A machine-oriented logic based on the resolution principle », contenait les germes du langage Prolog. Si cet article a donné naissance à un courant important de travaux sur la démonstration automatique de théorèmes, la contribution spécifique de l’équipe marseillaise a été de transformer ce démonstrateur en langage de programmation. Pour y parvenir, ils n’ont pas hésité à introduire des mécanismes purement calculatoires et des restrictions qui constituaient des hérésies pour le modèle théorique existant. Ces modifications, souvent critiquées, ont assuré la viabilité et donc le succès de Prolog.

Robert Kowalski a isolé le concept de « clause de Horn », légitimant leur principale hérésie : une stratégie de démonstration linéaire avec retour arrière et unifications uniquement aux têtes de clauses. L’équipe marseillaise disposait des conditions idéales pour cette création. Colmerauer appartenait à la première génération de docteurs en informatique français et sa spécialité était la théorie des langages. Il avait acquis une expérience précieuse en créant les systèmes-Q au sein du projet de traduction automatique de l’Université de Montréal. La rencontre avec Philippe Roussel et les conditions particulières de Marseille ont fait le reste. L’équipe a bénéficié d’une liberté d’action dans un centre scientifique nouvellement créé et, sans pressions extérieures, elle a pu se consacrer pleinement à son projet.

Haut de page

Smalltalk

En 1969, au cœur du Xerox PARC de Palo Alto, Alan Kay commence à rêver d’un ordinateur différent, dans l’effervescence des premières machines interactives, des écrans graphiques émergents et de ces souris que Douglas Engelbart vient d’inventer. Kay imagine un « medium personnel » capable d’amplifier l’intelligence humaine. De cette vision radicale naîtra Smalltalk, un langage qui bouleversera notre façon de concevoir la programmation.

L’idée germe à partir de trois influences marquantes. Simula avait introduit les objets, LISP maîtrisait la manipulation symbolique, et Sketchpad de Sutherland montrait ce que pouvait donner l’interaction graphique. Alan Kay mélange ces ingrédients avec l’audace qui le caractérise, et lance le pari de définir « le langage de programmation le plus puissant du monde » en une seule page de code. Pari tenu avec Smalltalk-71, une première version réalisée en quelques jours qui démontre qu’un système entier est capable de reposer sur l’échange de messages entre objets. Fini les langages où les objets côtoient les types primitifs dans une hiérarchie bancale. Ici, tout est objet : les nombres comme les structures de contrôle, les fenêtres comme les caractères. Cette radicalité conceptuelle n’a rien d’un caprice intellectuel. Elle forge un système d’une cohérence rare, où chaque élément obéit aux mêmes règles fondamentales.

Le concept mûrit au rythme des versions successives. Entre 1972 et 1976, l’équipe du PARC peaufine ce monde d’objets communicants. Dan Ingalls apporte sa contribution décisive avec l’invention des fenêtres superposables. Cette interface graphique deviendra plus tard un standard industriel, notamment quand Apple s’en inspirera pour le Macintosh.

Avec Smalltalk-76, Ingalls consolide les acquis des expérimentations précédentes en proposant un système complet : compilation à la volée, gestion automatique de la mémoire, interface graphique intégrée. L’environnement de développement autorise la modification du code pendant que le programme s’exécute, quelque chose d’inédit. Cette souplesse transforme la programmation en exploration permanente.

Mais c’est avec Smalltalk-80, rendu public en 1980, que le système atteint sa maturité. Dix années de recherche aboutissent à cette version qui standardise le langage et son environnement. Les concepts fondamentaux se cristallisent : tout est objet, les objets communiquent par messages, les classes sont elles-mêmes des objets, l’héritage rend possible la réutilisation du code. Ces principes influenceront durablement l’évolution de l’informatique par la suite.

La force de Smalltalk tient à sa pureté conceptuelle. Là où d’autres langages comme C++ ou Java greffent tant bien que mal des fonctionnalités orientées objet sur une base procédurale, Smalltalk applique son paradigme de bout en bout. Cette cohérence théorique s’accompagne d’innovations pratiques remarquables : l’environnement de développement intégré, le ramasse-miettes qui libère le programmeur de la gestion mémoire, l’interface moderne avec ses fenêtres, menus et souris.

L’expansion de Smalltalk coïncide avec l’émergence des ordinateurs personnels assez puissants pour l’héberger. Steve Jobs découvre le système lors de sa visite au PARC en 1979. Le choc est tel qu’il oriente directement le développement de l’interface du Macintosh. L’influence se propage ensuite dans toute l’industrie : Objective-C, Ruby, Python, Java empruntent chacun des éléments du modèle objet de Smalltalk.

Alan Kay avait initialement conçu Smalltalk pour l’apprentissage de la programmation par les enfants. Les objets modélisent intuitivement les entités du monde réel, l’interface graphique facilite l’expérimentation. Cette dimension éducative survit dans des projets comme Squeak et Etoys, qui perpétuent l’idée d’une informatique accessible à tous.

Le développement de Smalltalk illustre l’importance du contexte institutionnel dans l’innovation. Le Xerox PARC offrait à ses chercheurs une liberté exceptionnelle, sans pression commerciale immédiate. Cette autonomie a rendu possible l’émergence d’un système novateur. Paradoxalement, Xerox n’a jamais su tirer profit commercialement de cette innovation majeure.

Les années 1990 et 2000 voient fleurir de multiples implémentations : VisualWorks pour les professionnels, Squeak pour l’éducation, GNU Smalltalk pour le monde libre. Cette diversité témoigne de la vitalité persistante du modèle et de sa capacité d’adaptation.

Smalltalk n’est plus un langage dominant de nos jours, mais les principes qu’il a introduits – objets, messages, héritage, environnement interactif – sont devenus des standards industriels. L’évolution vers les interfaces tactiles et la programmation par blocs prolonge sa vision d’une informatique intuitive et accessible. Cette histoire révèle l’importance de la vision à long terme dans le progrès technologique. Smalltalk combine une théorie élégante de la programmation objet avec des innovations pratiques dans l’interface utilisateur. Son parcours montre qu’il faut du temps pour que les idées trouvent leur place, et que l’impact véritable d’une innovation se mesure souvent à l’aune des générations suivantes.

Haut de page

IBM VM/370

En 1972, IBM lança VM/370, pour Virtual Machine Facility/370. Derrière ce nom technique se cachait la possibilité de faire tourner plusieurs systèmes d’exploitation en parallèle sur une seule machine physique. L’idée n’était pas entièrement nouvelle puiqu’elle prolongeait les travaux menés sur CP-67/CMS pour le System/360 Model 67, mais sa mise en œuvre systématique passa à l’échelle de l’informatique d’entreprise.

Il fallait de l’audace pour imaginer ce concept à l’époque. VM/370 créait des « machines virtuelles », des environnements informatiques complets mais factices, chacun croyant disposer de son propre ordinateur. Cette illusion reposait sur quatre composants : le programme de contrôle CP qui orchestrait les ressources physiques, le système conversationnel CMS pour dialoguer avec les utilisateurs, le sous-système RSCS qui gérait les échanges de fichiers, et IPCS qui s’occupait des incidents. L’architecture masquait la complexité au profit de l’efficacité, chaque machine virtuelle évoluait dans sa bulle, ignorant totalement ses voisines. Cette isolation permettait de faire cohabiter différents systèmes IBM – DOS, OS/VS1, OS/VS2 – sans qu’ils se marchent sur les pieds. La prouesse technique tenait dans cette capacité à découper un seul ordinateur en multiples environnements étanches.

Côté mémoire, VM/370 introduisit une traduction d’adresses dynamique qui convertissait les adresses virtuelles en adresses physiques réelles. Le système découpait la mémoire en segments de 64 Ko et en pages de 4 Ko, créant plusieurs niveaux d’abstraction. Cette gymnastique intellectuelle permettait de faire tourner des machines virtuelles dont la somme dépassait la mémoire physique disponible. L’innovation s’étendait aux périphériques avec le « spooling », cette technique qui gérait les entrées-sorties de toutes les machines virtuelles. Un disque ou une imprimante pouvaient servir plusieurs environnements sans créer de conflits. VM/370 jonglait avec les ressources comme un prestidigitateur avec ses balles.

Chaque utilisateur recevait son identifiant et son mot de passe, et l’accès aux ressources suivait des règles de sécurité strictes. L’isolation entre machines virtuelles constituait une barrière naturelle suffisante pour qu’un plantage dans l’une n’affecte pas les autres. Cette robustesse séduisit immédiatement les développeurs qui pouvaient tester leurs programmes sans craindre de faire s’effondrer le système de production.

L’impact sur l’industrie dépassa les espérances d’IBM. Les entreprises découvrirent qu’elles pouvaient exploiter leurs coûteux ordinateurs de manière bien plus intensive. Au lieu de laisser des ressources dormir, elles les partageaient entre diverses applications. Fini les attentes interminables des informaticiens pour tester leur programme, chacun disposait de son environnement virtuel.

VM/370 s’adapta progressivement aux nouveaux matériels IBM, du modeste Model 135 au puissant Model 168. Le système intégra le support des disques 3330, 3340 et 3350, s’enrichit de fonctionnalités réseau et gagna en performances. Cette évolution constante témoignait de la vitalité du concept.

Les principes fondamentaux de VM/370 – isolation, partage des ressources, gestion dynamique de la mémoire – façonnent toujours les technologies modernes de virtualisation. VMware, Xen, KVM et les autres solutions contemporaines puisent dans ce patrimoine conceptuel forgé dans les années 1970. Plus qu’une prouesse technique, VM/370 modifia la façon de concevoir l’informatique d’entreprise. Le système prouva qu’il était possible de découper les ressources informatiques sans sacrifier les performances ni la sécurité. Les architectures à venir seraient donc plus souples et économiques.

L’influence du système sur la formation informatique fut considérable. Les écoles et universités adoptèrent VM/370 pour enseigner les systèmes d’exploitation. Les étudiants pouvaient expérimenter sur leurs propres machines virtuelles sans monopoliser un ordinateur entier. Cette démocratisation de l’accès aux ressources informatiques forma une génération d’informaticiens familiers de la virtualisation. VM/370 illustre comment une innovation technique peut transformer un secteur entier. En démontrant la viabilité de la virtualisation, IBM redéfinissait l’usage des ordinateurs. Cette transformation continue de résonner dans les centres de données modernes, où la virtualisation constitue désormais la norme plutôt que l’exception.

Haut de page

Ethernet

En 1972, dans les laboratoires de Xerox à Palo Alto, Bob Metcalfe et David Boggs travaillent sur la communication des ordinateurs avec des imprimantes laser dans un bâtiment. Leur solution, qu’ils baptisent Ethernet, va bien au-delà de cette demande initiale en atteignant 2,94 mégabits par seconde.

L’idée de base tient du génie dans sa simplicité. Tous les ordinateurs se partagent le même câble, comme des gens qui discutent autour d’une table. Avant de parler, chacun écoute pour s’assurer que personne d’autre n’a pris la parole. Si deux personnes commencent en même temps, elles s’arrêtent, attendent un moment au hasard, puis recommencent. Cette méthode, technique baptisée CSMA/CD, fonctionne remarquablement bien malgré son apparente anarchie.

Le premier Ethernet circule dans un câble coaxial de 75 ohms. Les machines s’y connectent grâce à des boîtiers spéciaux qui détectent les collisions et isolent électriquement chaque station. Il est possible de brancher ou débrancher une machine sans paralyser tout le réseau, ce qui représente un avantage considérable sur les systèmes centralisés. Quatre ans plus tard, Metcalfe et Boggs décrivent leur invention dans un article des « Communications of the ACM ». Ethernet sort du laboratoire pour gagner le monde industriel. Les premières installations montrent la capacité à connecter des centaines de machines sur plus d’un kilomètre.

Xerox comprend alors le potentiel commercial de sa création. En 1980, l’entreprise s’allie avec Intel et Digital Equipment Corporation pour transformer Ethernet en standard ouvert. Cette décision stratégique s’avère payante : libérer la technologie de son créateur accélère son adoption. La nouvelle spécification pousse le débit à 10 mégabits par seconde et adopte le câble coaxial 50 ohms. Les adresses des machines passent de 8 à 48 bits, garantissant leur unicité mondiale.

L’IEEE prend le relais avec son comité 802.3 au début des années 1980. Cette normalisation inscrit Ethernet dans le modèle OSI et le rend totalement indépendant des constructeurs. Le protocole CSMA/CD est la sous-couche MAC de la couche liaison, tandis que les aspects physiques relèvent des normes 802.3.

En 1990, la norme 802.3i abandonne le bus coaxial au profit des paires torsadées et de la topologie en étoile. Fini les câbles qui serpentent dans les faux plafonds, chaque machine a désormais son propre lien vers un concentrateur central, faisant de l’installation et la maintenance un jeu d’enfant. Le Fast Ethernet arrive en 1995 avec ses 100 mégabits par seconde, suivi trois ans plus tard par le Gigabit Ethernet.

Metcalfe et Boggs ont fait des choix techniques qui durent. Ethernet ne gère ni les priorités ni la qualité de service, laissant ces questions aux protocoles de niveau supérieur. Cette apparente limitation se révèle être une force car la simplicité du mécanisme de base autorise toutes les adaptations ultérieures. Le cœur du système est remarquablement stable. Le contrôleur surveille le canal et applique les règles CSMA/CD. L’émetteur-récepteur fait l’interface avec le support physique. Les trames transportent les adresses source et destination, un champ type pour identifier le protocole encapsulé, les données et un code de contrôle CRC. Cette architecture épurée traverse les décennies sans modifications majeures.

Durant les années 1990, les commutateurs (switches) transforment radicalement la nature d’Ethernet. Au lieu d’un canal partagé où tout le monde s’écoute, le réseau évolue vers un ensemble de liens point à point. Différentes conversations peuvent avoir lieu simultanément. Le mode full-duplex remplace progressivement le CSMA/CD, devenu moins utile avec la commutation.

Pourquoi Ethernet a-t-il triomphé là où d’autres ont échoué ? D’abord par son coût réduit, conséquence directe de sa simplicité. Ensuite par sa capacité d’évolution : les débits augmentent, les supports changent, mais les principes fondamentaux demeurent. Enfin par son ouverture, aucun constructeur ne pouvant s’approprier le réseau.

Les concepteurs ont validé leurs choix par l’expérimentation. L’Ethernet expérimental a fourni des mesures précises montrant une utilisation du support proche de 98% dans certaines conditions. Le mécanisme de binary exponential backoff (BEB), un algorithme permettant de limiter la charge du réseau quand une collision se produit entre deux messages, assure la stabilité sous n’importe quelle charge. Ces données concrètes ont guidé l’élaboration du standard industriel.

Aujourd’hui, Ethernet transporte la voix sur IP, connecte les baies de stockage, irrigue les centres de données. Les débits atteignent 400 gigabits par seconde sur fibre optique. La technologie née pour relier quelques ordinateurs à des imprimantes structure désormais l’internet mondial. Les solutions les plus durables ne sont pas toujours les plus sophistiquées.

Haut de page

TCP/IP

À la fin des années 1960, dans le contexte particulier de la guerre froide, les États-Unis cherchaient à établir un réseau de communication militaire capable de résister à une attaque nucléaire soviétique. Le Département de la Défense américain, à travers son agence DARPA (Defense Advanced Research Projects Agency), lança en 1969 le projet ARPAnet qui visait à interconnecter les principaux centres informatiques du pays. Les contraintes militaires façonnent d’emblée la conception du réseau. Pas question d’avoir un talon d’Achille, un point central dont la destruction compromettrait tout le système. Les messages doivent pouvoir emprunter des routes alternatives de façon dynamique si certaines portions tombent. Plus complexe, le réseau doit relier des ordinateurs tournant sous des systèmes d’exploitation différents.

ARPAnet démarre avec le protocole NCP, mais ses défauts apparaissent en peu de temps. En 1974, deux chercheurs changent la donne : Vinton Cerf et Robert Kahn publient « A Protocol for Packet Network Interconnection », article fondateur qui présente TCP. Cette publication dessine les contours de ce qui deviendra TCP/IP, standardisant la communication entre les machines. L’astuce de TCP/IP tient dans sa structure en couches séparées. IP s’occupe d’acheminer les paquets de données d’un point à l’autre du réseau, tandis que TCP veille au contrôle de la transmission et reconstitue les messages complets à l’arrivée. Cette division des tâches rend l’ensemble plus solide et plus simple à faire évoluer, un principe d’ingénierie qui fera ses preuves.

En 1983, TCP/IP remplace officiellement NCP sur ARPAnet. Bien que ce point soit très largement discuté et discutable, le concept d’Internet naît véritablement à ce moment, au sens littéral du terme. Le succès de TCP/IP repose sur trois atouts décisifs. Il fonctionne sur n’importe quel matériel, ordinateur ou réseau physique. Il maintient la communication quand une partie du réseau tombe en panne grâce à son routage dynamique. Il découpe les messages en paquets qui peuvent emprunter des chemins différents avant d’être réassemblés. L’adressage IP de première génération utilise des adresses sur 32 bits qui identifient chaque machine de manière unique. Le système classe ces adresses en catégories A, B et C pour simplifier la gestion. Mais la croissance explosive du réseau révèle vite les limites de cette approche. Les informaticiens développent alors des solutions de contournement comme le sous-adressage, en attendant IPv6 et ses adresses sur 128 bits.

L’architecture TCP/IP s’organise en quatre étages : Accès réseau pour la connexion physique, Internet (IP) pour le routage, Transport (TCP/UDP) pour la transmission, et Application pour les programmes utilisateur. Cette hiérarchie facilite l’ajout de nouvelles fonctionnalités sans bouleverser l’existant, un avantage énorme pour l’évolution du système. Plusieurs protocoles auxiliaires viennent compléter TCP/IP. ARP traduit les adresses IP logiques en adresses physiques des cartes réseau. ICMP transporte les messages de contrôle et d’erreur. Ces mécanismes contribuent à la fiabilité et à l’efficacité du système global.

UNIX Berkeley contribue à la diffusion de TCP/IP durant les années 1980. L’intégration native du protocole dans BSD facilite son adoption par les universités et centres de recherche qui utilisent massivement ce système d’exploitation. La documentation technique est publique et accessible à tous sous forme de RFC, documents ouverts aux contributions de la communauté. Cette démarche décentralisée stimule l’innovation et l’amélioration continue, une approche qui influencera durablement le développement technologique.

L’explosion du World Wide Web dans les années 1990 valide spectaculairement le choix de TCP/IP. Le protocole absorbe sans broncher une croissance exponentielle du nombre d’utilisateurs et l’arrivée d’applications gourmandes en ressources. Sa souplesse autorise l’ajout de fonctionnalités avancées comme le multicast pour diffuser vers de multiples destinataires, et qualité de service pour prioriser certains flux. L’histoire de TCP/IP continue d’ailleurs de s’écrire. L’épuisement annoncé des adresses IPv4 et les nouveaux besoins en sécurité et performance poussent au développement d’IPv6 dans les années 1990. Cette version propose un espace d’adressage quasi infini – 3,4×1038 adresses – et des améliorations substantielles. La migration vers IPv6 progresse très lentement, compliquée par la nécessité de maintenir la compatibilité avec l’existant.

De projet militaire à standard universel, TCP/IP colonise tous les domaines contemporains. Ordinateurs bien sûr, mais aussi smartphones, objets connectés, équipements industriels, la liste s’allonge chaque jour. Cette ubiquité tient à sa remarquable faculté d’adaptation aux évolutions technologiques sans rompre avec l’héritage. La standardisation de TCP/IP a rendu possible l’émergence d’un réseau planétaire où des milliards de machines dialoguent, peu importe leur origine ou leur localisation géographique.

Haut de page

Telnet

Dans l’univers informatique du début des années 1970, l’ARPANET venait de naître, mais ses promesses d’interconnexion universelle se heurtaient à la réalité technique. Chaque fabricant développait ses propres protocoles, ses propres standards, créant autant d’îlots technologiques étanches. Un terminal fonctionnant avec le jeu de caractères EBCDIC ne savait tout simplement pas dialoguer avec un ordinateur PDP-10 configuré pour l’ASCII. Il fallait faire communiquer entre elles des machines de constructeurs différents.

Le protocole Telnet émergea pour répondre à ce problème. Ses concepteurs comprirent qu’il fallait inventer une langue commune informatique qui permettrait à n’importe quel terminal de se connecter à n’importe quel ordinateur distant. Cette intuition donna naissance au Network Virtual Terminal (NVT), concept d’une élégance remarquable dans sa simplicité. Il fonctionne comme un traducteur universel. Plutôt que de forcer chaque machine à comprendre tous les dialectes possibles de ses congénères, le système impose un format standardisé unique. Chaque ordinateur n’a qu’une seule traduction à maîtriser : celle entre son langage natif et cette lingua franca virtuelle. Un terminal EBCDIC traduit vers le NVT, qui retraduit ensuite vers l’ASCII attendu par la machine de destination. L’efficacité de cette approche frappa immédiatement les ingénieurs de l’ARPANET.

Mais l’histoire de Telnet recèle un épisode savoureux. En 1972, Bernard Cosell et David Walden, tous deux employés de BBN et travaillant sur le Terminal Interface Message Processor, se trouvèrent confrontés à un casse-tête récurrent. Les spécifications de Telnet évoluaient constamment, et chaque modification imposait de mettre à jour simultanément toutes les instances existantes sur le réseau. Une tâche pharaonique qui ralentissait considérablement le développement. C’est dans un avion en route vers UCLA que Cosell eut l’illumination. Pourquoi ne pas laisser les deux extrémités d’une connexion négocier entre elles les fonctionnalités qu’elles souhaitaient utiliser ? Cette idée, qu’il développa avec Walden pendant le vol, révolutionna l’approche des protocoles réseau. De retour au sol, ils conçurent un mécanisme reposant sur quatre commandes lapidaires : DO, DON’T, WILL et WON’T. Ces quatre mots magiques transformèrent Telnet en un protocole vivant, capable d’évoluer sans casser l’existant. Quand une machine proposait une nouvelle fonctionnalité via WILL, son interlocutrice pouvait l’accepter avec DO ou la décliner poliment avec DON’T. Si elle ne comprenait pas la proposition, un simple refus suffisait, et la communication reprenait sur les bases communes du NVT. Cette négociation permanente permit au protocole de s’enrichir progressivement, telle une langue qui intègre naturellement de nouveaux termes sans perdre sa cohérence. Ray Tomlinson, déjà célèbre pour avoir inventé l’e-mail, travaillait alors sur l’implémentation Telnet pour le système TENEX. Dès qu’il découvrit le mécanisme imaginé par Cosell et Walden, il en saisit immédiatement la portée. David Walden formalisa l’idée dans le RFC 435, publié en janvier 1973, posant les jalons de ce qui deviendrait un standard durable.

La standardisation définitive intervint dix ans plus tard, avec le RFC 854 de 1983. Telnet y gagna sa forme moderne : connexion TCP bidirectionnelle sur le port 23, encodage ASCII 7 bits, et gestion sophistiquée du flux de données. Les ingénieurs y ajoutèrent un mécanisme de synchronisation ingénieux, pensé pour les situations d’urgence où un utilisateur doit reprendre le contrôle d’un programme distant devenu fou. Le signal « Synch » utilise les capacités d’urgence de TCP pour court-circuiter le contrôle de flux normal et garantir la transmission immédiate des commandes critiques. Cette architecture élégante fit de Telnet bien plus qu’un simple émulateur de terminal. Le protocole devint l’épine dorsale de l’accès distant aux systèmes informatiques. Dans les années 1980 et 1990, il alimenta l’explosion des premiers services en ligne et des BBS, ces babillards électroniques précurseurs des forums d’aujourd’hui. Sa simplicité séduisait autant les développeurs que les utilisateurs.

Conçu dans les années 1970, quand l’informatique évoluait dans un monde de confiance relative, Telnet ne chiffrait rien. Mots de passe, données sensibles, tout transitait en clair sur les réseaux. Cette faiblesse, anodine à l’origine, devint rédhibitoire avec la démocratisation d’Internet et l’émergence des préoccupations sécuritaires. L’arrivée des interfaces graphiques porta un coup supplémentaire au vénérable protocole. Les utilisateurs délaissèrent progressivement les terminaux en mode texte pour les fenêtres colorées et les icônes cliquables. SSH, apparu dans les années 1990, récupéra les atouts de Telnet en y ajoutant le chiffrement qui lui manquait tant.

S’il est chassé par les experts en sécurité, Telnet n’a pas disparu pour autant. Dans les salles serveurs, il est l’outil de diagnostic par excellence. Les administrateurs réseau l’ont utilisé longtemps, peut-être encore d’ailleurs, pour tester la connectivité sur un port donné ou configurer de vieux équipements récalcitrants. Cette persistance témoigne de la robustesse de sa conception originelle.

Le concept de terminal virtuel a essaimé dans d’innombrables protocoles ultérieurs. Le mécanisme de négociation d’options, né dans cet avion vers UCLA, inspira les ingénieurs confrontés au défi de l’extensibilité. Comment faire évoluer un protocole sans casser l’existant ? Cosell et Walden avaient trouvé une réponse d’une simplicité déconcertante, qui continue de faire école. Face à la complexité croissante des systèmes, la tentation était grande de développer des solutions sophistiquées, aux fonctionnalités pléthoriques. Telnet choisit de privilégier l’interopérabilité et la flexibilité sur la sophistication.

Haut de page

Le langage SQL

En 1969, un chercheur d’IBM nommé Edgar Frank Codd publie un article aux allures anodines : « Derivability, Redundancy, and Consistency of Relations Stored in Large Data Banks ». Personne ne se doute que ce texte va bouleverser la façon dont nous stockons et manipulons les données informatiques. L’année suivante, Codd récidive avec un papier plus ambitieux dans Communications of l’ACM : « A Relational Model of Data for Large Shared Data Banks ». Cette fois, l’industrie prête attention.

Le modèle relationnel de Codd rompt avec les approches hiérarchiques et réseau dominantes à l’époque. Il propose d’organiser les données dans des tables simples, liées entre elles par des relations mathématiques. L’idée paraît presque triviale aujourd’hui, mais elle révolutionne la pensée informatique. Les communautés universitaire et industrielle s’emparent de ces concepts théoriques.

Chez IBM, Donald Chamberlin et son équipe ne perdent pas de temps. En 1974, ils développent System R, le premier prototype de base de données relationnelle digne de ce nom. Le langage de requête associé reçoit le nom de SEQUEL, pour Structured English QUEry Language. Ce choix trahit une ambition : créer un langage proche de l’anglais naturel, accessible aux utilisateurs non spécialistes. Fini les commandes cryptiques, place à des instructions compréhensibles par le plus grand nombre.

Le projet avance par étapes. SEQUEL-XRM voit le jour entre 1974 et 1975, suivi d’une réécriture complète en 1976-1977. Cette nouvelle mouture, baptisée SEQUEL/2, introduit des fonctionnalités indispensables : requêtes multi-tables, support multi-utilisateurs, gestion avancée des données. Mais un obstacle imprévu surgit : la société britannique Hawker Siddeley Aircraft Company possède déjà la marque SEQUEL. IBM doit rebaptiser son langage avec l’acronyme SQL.

L’histoire prend une tournure inattendue en 1979. Alors qu’IBM peaufine ses prototypes, une petite société californienne nommée Relational Software commercialise le premier système de gestion de base de données relationnelle. Dans un trait de génie marketing, cette entreprise numérote son produit « Version 2 », évitant ainsi les réticences habituelles face aux premières versions. Relational Software deviendra Oracle Corporation, prenant de vitesse le géant IBM sur son propre terrain.

IBM rattrape son retard avec SQL/DS en 1981, et DB2 en 1983. Entre-temps, les tests clients menés dès 1978 ont validé l’approche : SQL séduit par sa simplicité d’usage et sa puissance, permettant de décrire ce que l’on veut obtenir sans préciser comment l’obtenir. Cette approche déclarative contraste avec les langages procéduraux traditionnels et démocratise l’accès aux bases de données.

La standardisation s’impose naturellement. En 1986, l’American National Standards Institute certifie SQL comme norme officielle. L’Organisation internationale de normalisation suit en 1987. Ces premières normes, d’environ 150 pages, standardisent le dialecte SQL d’IBM DB2. Mais elles souffrent de lacunes et d’imprécisions, conséquences des intérêts commerciaux divergents des éditeurs.

La norme SQL2 de 1992 corrige ces défauts. Ce document de 500 pages élimine quelques unes des faiblesses de la version précédente et standardise des fonctionnalités conceptuelles avancées, parfois au-delà des capacités techniques admissibles. Trois niveaux de conformité voient le jour : Entry pour les modifications mineures, Intermediate pour au moins 50% de la norme, et Full pour la conformité totale.

SQL99, ou SQL3, marque une nouvelle évolution à la fin des années 1990. Cette norme de 2000 pages intègre les modèles objet-relationnels, les interfaces d’appel et la gestion avancée de l’intégrité. Elle remplace les anciens niveaux de conformité par deux catégories : Core SQL99 et Enhanced SQL99. Le document se structure désormais en cinq parties spécialisées, témoignant de la complexité croissante du langage.

Le XXIe siècle voit naître SQL :2003, SQL :2008 et SQL :2011, chaque version enrichissant le langage de nouvelles capacités. Mais au-delà de cette chronologie technique, SQL doit son succès à des qualités plus profondes. Sa syntaxe inspirée de l’anglais naturel le rend abordable aux non-spécialistes. Sa nature déclarative libère l’utilisateur des contraintes procédurales. Le modèle relationnel sous-jacent structure les données de façon claire et cohérente.

Les concepts de clés primaires et étrangères, de normalisation et d’intégrité référentielle garantissent la cohérence des données stockées. Cette rigueur mathématique, alliée à la flexibilité d’usage, explique l’adoption massive de SQL par l’industrie. Oracle, MySQL, PostgreSQL, Microsoft SQL Server et tant d’autres systèmes perpétuent cet héritage, étendant les capacités du langage tout en préservant la compatibilité.

Haut de page

System R

Durant l’année 1974, une équipe de chercheurs du laboratoire IBM de San José voulait démontrer que le modèle relationnel théorisé par Edgar F. Codd quatre ans plus tôt pouvait fonctionner dans la réalité, avec de vraies données et de vrais utilisateurs. Ce projet, baptisé System R, n’était pas qu’une simple expérimentation technique. Il s’agissait de construire un pont entre la beauté mathématique du modèle relationnel et les contraintes brutales du monde industriel.

L’équipe dirigée par W. F. King débuta par ce qu’elle appela la « Phase Zéro », une période d’exploration qui dura de 1974 à 1975. Le premier prototype, limité à un seul utilisateur, implémentait déjà les bases de ce qui deviendrait SQL. Cette version initiale s’appuyait sur le gestionnaire d’accès relationnel XRM développé par Raymond Lorie au Centre scientifique IBM de Cambridge. Les chercheurs découvrirent que transformer une théorie élégante en code fonctionnel soulevait des questions inattendues. Comment stocker efficacement les données ? Comment garantir l’intégrité des transactions ? Comment faire en sorte que les requêtes s’exécutent dans des temps raisonnables ?

La vraie révolution eut lieu pendant la « Phase Un », entre 1976 et 1977. L’équipe conçut une architecture à deux niveaux qui séparait clairement les responsabilités. Le RSS (Research Storage System) gérait tout ce qui touchait au stockage physique, aux verrous et à la journalisation des modifications. Au-dessus, le RDS (Relational Data System) s’occupait des autorisations et de l’optimisation des requêtes. Cette séparation n’était pas qu’une coquetterie d’ingénieur : elle rendait possible la maintenance et l’évolution du système.

Raymond Lorie proposa début 1976 l’idée de compiler les requêtes SQL au lieu de les interpréter. Traditionnellement, les systèmes de bases de données analysaient et exécutaient les requêtes à la volée, ce qui limitait leurs performances. L’approche de System R transformait chaque requête en code machine optimisé. Pour les applications qui répétaient les mêmes opérations des milliers de fois, le gain était spectaculaire. Pour les requêtes ponctuelles, le surcoût de compilation était largement compensé par la vitesse d’exécution.

L’optimiseur automatique de requêtes constituait le cerveau du système. Il analysait chaque demande, consultait les statistiques stockées dans le catalogue système, et choisissait la stratégie d’accès aux données la plus efficace. Son algorithme calculait le coût des entrées-sorties et du temps processeur pour différentes approches. Les index, sous forme de B-trees, garantissaient des accès rapides sur de gros volumes de données.

Le verrouillage hiérarchique réglait les problèmes d’accès concurrent avec une granularité variable. Un utilisateur pouvait verrouiller un seul enregistrement pour une modification ponctuelle, ou une table entière pour une opération de maintenance. Trois niveaux d’isolation permettaient aux développeurs de choisir entre cohérence stricte et performances. Le niveau le plus exigeant garantissait que relire un enregistrement plusieurs fois dans une transaction donnait toujours un résultat identique.

La récupération après incident s’appuyait sur un mécanisme ingénieux de « pages fantômes ». Lors d’une modification, le système créait une nouvelle version de la page à un autre emplacement du disque, préservant l’ancienne jusqu’à la validation de la transaction. Des points de contrôle périodiques purgeaient les versions obsolètes. Si elle compliquait l’organisation physique des données, cette approche simplifiait considérablement la gestion des pannes.

La « Phase Deux », de 1978 à 1979, sortit System R des laboratoires pour l’installer chez de vrais utilisateurs. Des sites pilotes IBM et trois clients sélectionnés testèrent le système dans des conditions réelles. Ces expérimentations confirmèrent l’intuition initiale : les développeurs gagnaient en productivité grâce à l’uniformité du langage SQL. Qu’ils écrivent du code applicatif, lancent des requêtes ponctuelles ou définissent la structure des données, ils utilisaient la même syntaxe.

Les tests révélèrent aussi les limites du système. Pour des transactions simples manipulant peu de données, l’utilisation de tables de hachage ou de pointeurs directs aurait donné de meilleures performances. Le mécanisme des pages fantômes, malgré ses avantages pour la récupération, empêchait de regrouper efficacement les données liées sur le disque.

Un phénomène inattendu émergea lors des tests de montée en charge. L’équipe le baptisa « convoi » : quand un processus tenant un verrou très demandé était mis en attente longue par l’ordonnanceur, tous les autres processus se retrouvaient bloqués en chaîne derrière lui. La solution nécessita de repenser le protocole de libération des verrous pour éviter ces embouteillages.

System R transforma durablement l’industrie. Ses innovations architecturales – compilation des requêtes, optimisation automatique basée sur des statistiques, verrouillage hiérarchique – furent reprises par pratiquement tous les systèmes relationnels qui suivirent. En 1981, IBM commercialisa SQL/DS, son premier produit de base de données relationnelle, suivi deux ans plus tard par DB2 pour les mainframes. Oracle, Ingres et d’autres éditeurs développèrent leurs propres systèmes, démocratisant cette technologie.

L’impact dépassa largement la technique. System R prouva qu’un système informatique pouvait combiner simplicité d’usage et sophistication interne. Les utilisateurs manipulaient des concepts intuitifs – tables, lignes, colonnes – sans se soucier des mécanismes complexes qui garantissaient cohérence et performance. Cette séparation entre vue logique et physique devint un principe de l’informatique de gestion.

Le projet valida la vision d’Edgar F. Codd sur l’importance de l’abstraction dans la gestion des données. Il établit aussi l’importance d’une démarche expérimentale rigoureuse dans le développement technologique. Plutôt que de se contenter d’élégantes démonstrations théoriques, l’équipe de San José construisit un système complet et le testa dans des conditions réelles.

Face à l’émergence des systèmes NoSQL qui remettent en question certains aspects du modèle relationnel, les principes architecturaux de System R gardent leur pertinence. L’optimisation déclarative des requêtes, la gestion transactionnelle et la séparation des niveaux logique et physique restent des références.

Haut de page

Intel 8080

Dans l’effervescence technologique du début des années 1970, Intel tentait de s’imposer sur le marché des microprocesseurs. La société de Robert Noyce et Gordon Moore venait de lancer le 4004 en 1971, et l’année suivante le 8008, son premier processeur 8 bits. Mais ces premières réalisations, malgré leur caractère novateur, montraient leurs limites face aux attentes grandissantes du marché.

L’arrivée du physicien italien Federico Faggin dans les rangs d’Intel avait donné une impulsion décisive à ces développements. Son expertise en conception logique et en technologies MOS à grille silicium permit d’intégrer tous les circuits sur une seule puce, là où d’autres constructeurs peinaient à maîtriser cette complexité. Pourtant, dès 1972, les critiques s’accumulaient contre le 8008. Plessey et Nixdorf, deux entreprises informatiques européennes, pointaient du doigt une structure d’interruptions primitive, une multiplexion des adresses et des données pénalisante pour les performances, et une vitesse de fonctionnement famélique à 0,5 MHz.

Ces reproches résonnaient d’autant plus fort qu’ils émanaient de clients potentiels aux besoins réels. Le projet Sac State 8008, conçu pour gérer des dossiers médicaux, illustrait bien les possibilités du traitement 8 bits, mais révélait aussi les insuffisances du processeur face aux applications professionnelles. Intel comprit qu’une refonte complète s’imposait.

Le développement du 8080 débuta en novembre 1972 sous la direction de Masatoshi Shima, supervisé par Federico Faggin. Shima apportait au projet son expérience acquise chez Ricoh dans la conception d’interfaces entre périphériques et mini-ordinateurs. Sa méthode de travail tranchait avec les pratiques habituelles : il créa des tables détaillées pour valider chaque instruction, appliquant une approche systématique de vérification logique qui préfigurait les méthodes modernes de conception.

Seize mois s’écoulèrent entre les premières esquisses et la commercialisation en janvier 1974. La répartition du temps révèle la méticulosité du processus : un mois pour définir le produit, huit mois pour concevoir la puce, et cinq mois pour fabriquer les masques, produire les wafers et déboguer l’ensemble. Cette rigueur porta ses fruits : le 8080 intégrait environ 5 000 transistors dans une architecture cohérente et performante.

La technologie NMOS retenue pour le 8080 provenait directement des développements d’Intel sur les mémoires dynamiques 4K. Cette filiation technique explique les trois tensions d’alimentation nécessaires : +5V, +12V et -5V, contrainte qui disparaîtra avec les générations suivantes. Le boîtier 40 broches, plus de deux fois supérieur aux 18 broches du 8008, témoignait de l’ambition du projet et libérait enfin le processeur des limitations de connectivité.

L’architecture interne révolutionnait cette approche. Shima abandonna la pile interne limitée du 8008 au profit d’un pointeur de pile en mémoire principale, donnant une flexibilité jusqu’alors inconnue. Les registres furent organisés selon une hiérarchie réfléchie : trois paires (BC, DE, HL) aux capacités différenciées, HL étant la plus puissante, BC la plus basique. Cette asymétrie, parfois critiquée par les programmeurs habitués aux architectures uniformes, résultait d’un choix délibéré d’optimisation des ressources matérielles.

Le jeu d’instructions s’enrichit considérablement tout en préservant une compatibilité au niveau assembleur avec le 8008. Innovation remarquable, le 8080 introduisit des opérations 16 bits : incrémentation, décrémentation, addition et soustraction. Shima privilégia cette approche générique plutôt que l’ajout d’un registre d’index spécialisé, choix débattu mais qui offrait une souplesse de programmation appréciable.

Les premiers tests de performance révélèrent l’ampleur du bond technologique. Deux programmes témoins – un transfert de 256 octets en mémoire et des additions décimales sur 16 chiffres – démontraient des gains de 10 à 20 fois par rapport au 8008 à fréquence identique. Porté à 2 MHz, le 8080 creusait l’écart avec son prédécesseur.

Intel accompagna le lancement d’une stratégie commerciale audacieuse. Le prix initial de 360 dollars l’unité pouvait sembler dissuasif, mais la société pariait sur la valeur ajoutée de son processeur. Ce pari se révéla gagnant : les constructeurs acceptaient cette prime pour bénéficier des capacités accrues. L’écosystème développé autour du 8080 renforça cette position : circuits spécialisés comme le 8224 (générateur d’horloge) et le 8228 (contrôleur de bus), systèmes de développement Intellec, tout concourait à simplifier l’adoption du processeur.

Le succès de l’Altair 8800 de MITS, basé sur le 8080, confirma les intuitions d’Intel. Ce micro-ordinateur personnel, vendu en kit, ouvrit la voie à une nouvelle génération de machines accessibles aux particuliers passionnés. L’informatique personnelle trouvait là son premier véritable support technique.

Un défaut de conception faillit pourtant ternir ce succès. La ligne de masse principale, trop étroite, limitait l’utilisation aux circuits TTL basse consommation. Intel réagit en proposant la version corrigée 8080A, qui devint la référence du marché. Cette réactivité face aux problèmes techniques illustrait la maturité nouvelle de l’entreprise.

L’influence du 8080 dépassa largement les frontières d’Intel. Federico Faggin, parti fonder Zilog, conçut le Z80 en s’inspirant directement de son travail sur le 8080. Motorola répondit avec le 6800, architecture concurrente mais aux principes similaires. Cette émulation stimula l’innovation dans tout le secteur des microprocesseurs.

Au-delà de ses performances, le 8080 établit des standards durables : bus de données 8 bits séparé du bus d’adresses 16 bits, boîtier 40 broches, architecture de registres généralistes. Ces caractéristiques se retrouvèrent dans de nombreux processeurs ultérieurs, témoignage de la justesse des choix techniques de Shima et Faggin.

L’héritage du 8080 se mesure aussi à l’aune de l’industrie qu’il contribua à créer. En démontrant la viabilité commerciale des microprocesseurs 8 bits, il permettra à l’informatique personnelle de prendre toute sa place et confirma la position dominante d’Intel sur ce marché stratégique. Son architecture équilibrée et ses performances établirent des références qui guidèrent l’évolution technologique pendant des années.

Haut de page

CP/M

En 1972, Gary Kildall, alors consultant pour Intel via sa société Microcomputer Applications Associates, développe PL/M, un langage de programmation destiné aux microprocesseurs Intel. Ce langage, dérivé du langage XPL utilisé pour l’écriture de compilateurs, constitue le premier langage de haut niveau spécifiquement conçu pour la programmation des microprocesseurs. Le premier programme substantiel écrit en PL/M fut un éditeur de texte pour le microprocesseur Intel 8008, qui deviendra plus tard l’éditeur ED de CP/M (Control Program for Microcomputers).

En 1974, Kildall perçoit le besoin d’un système d’exploitation pour exploiter les nouveaux lecteurs de disquettes 8 pouces de Shugart Associates. Cette année-là, le support de stockage dominant était la bande papier perforée, qui coûtait environ 100 fois plus cher que les disquettes à quantité de données équivalente. Kildall propose à Intel de développer un système d’exploitation complet incluant un éditeur, un assembleur et un chargeur, pour un montant de 20 000 dollars. Intel décline l’offre, mais fournit à Kildall le matériel nécessaire pour poursuivre son développement.

Le développement de CP/M s’effectue dans l’atelier situé derrière la maison de Kildall au 781 Bayview Avenue à Pacific Grove, Californie. Ne parvenant pas à réaliser seul l’interface électronique complexe entre le microprocesseur et le lecteur de disquettes, il fait appel à John Torode, un ami de l’université enseignant à Berkeley, qui conçoit le contrôleur nécessaire. C’est à l’automne 1974 que Kildall réussit à faire fonctionner CP/M pour la première fois, chargeant le système depuis une bande papier vers une disquette puis démarrant l’ordinateur depuis celle-ci.

L’une des innovations majeures de CP/M est sa conception modulaire séparant les fonctions dépendantes du matériel dans un composant distinct appelé BIOS (Basic Input/Output System). CP/M s’adapte ainsi facilement à différentes configurations matérielles en ne modifiant que le BIOS. Le reste du système, incluant le gestionnaire de fichiers et l’interpréteur de commandes, est identique quelle que soit la plateforme. Cette portabilité s’avère déterminante pour le succès commercial de CP/M.

En 1976, Gary et Dorothy Kildall fondent Digital Research Inc. (initialement nommée Intergalactic Digital Research) pour commercialiser CP/M. Les premières ventes s’effectuent depuis un bureau loué au 716 Lighthouse Avenue à Pacific Grove. Les disquettes CP/M sont vendues 70 dollars pièce, et le couple se rend quotidiennement à la poste pour récupérer les chèques résultant des publicités placées dans des magazines comme Byte et Dr. Dobb’s Journal.

Un accord de licence avec IMS Associates, Inc. en 1977 accroît considérablement la crédibilité de CP/M dans l’industrie, faisant de ce système un standard adopté par la plupart des fabricants d’ordinateurs personnels de l’époque, dont Altair, Amstrad, Kaypro et Osborne. En 1978, le chiffre d’affaires atteint 100 000 dollars par mois et Digital Research s’installe dans une maison victorienne au 801 Lighthouse Avenue. En 1980, l’entreprise emploie plus de 20 personnes et génère un chiffre d’affaires de 3,5 millions de dollars, soit cinq fois celui de Microsoft à cette période.

En 1980, Bill Gates, qui connaissait Kildall pour avoir discuté d’une possible fusion entre leurs entreprises, recommande Digital Research à IBM pour le système d’exploitation de son PC en cours de développement. Les négociations échouent sur des questions de confidentialité et de modèle commercial : IBM souhaite acheter CP/M sans redevances, tandis que Digital Research préfère un modèle par copie vendue. Microsoft saisit cette opportunité en achetant un clone de CP/M à Seattle Computer Products, renommé PC-DOS pour IBM et MS-DOS pour les autres constructeurs.

Face à cette situation, Kildall menace IBM d’un procès pour copie illégale de CP/M. IBM accepte de proposer CP/M-86 en option sur le PC, mais à 240 dollars contre 40 dollars pour PC-DOS. Cette différence de prix oriente massivement le marché vers PC-DOS/MS-DOS. Digital Research continue néanmoins à prospérer pendant quelques années, développant des systèmes d’exploitation multitâches pour l’ordinateur IBM PC-XT et introduisant des interfaces graphiques avant Apple et Microsoft.

Au milieu des années 1980, la domination de MS-DOS sur le marché des PC compatibles IBM affecte sérieusement l’activité de Digital Research. Gary Kildall, qui n’appréciait guère la gestion d’une grande entreprise, vend Digital Research à Novell en 1991. Les actifs sont ensuite revendus à Caldera en 1996, qui utilisera la propriété intellectuelle de DRI dans un procès contre Microsoft.

CP/M a connu des évolutions majeures. MP/M (Multi-Programming Monitor) ajoute des capacités multitâches et multi-utilisateurs. CP/NET, introduit en 1980, connecte des ordinateurs CP/M à des serveurs MP/M via divers protocoles réseau. Une version 16 bits, CP/M-86, est développée pour les processeurs Intel 8086/8088. Mais c’est la version 8 bits qui connaît le plus grand succès, avec environ 200 000 installations sur plus de 3000 configurations matérielles différentes.

CP/M établit des concepts fondamentaux comme la séparation entre le système d’exploitation et le matériel via le BIOS, l’utilisation de commandes standardisées, et la gestion de fichiers sur disque. Ces principes influencent directement la conception de MS-DOS et, par extension, l’évolution des systèmes d’exploitation personnels. En 1995, la Software and Information Industry Association décerne à Gary Kildall un prix pour l’ensemble de sa carrière, citant huit contributions majeures à l’industrie des micro-ordinateurs. En 2014, l’IEEE installe une plaque commémorative devant l’ancien siège de Digital Research, reconnaissant CP/M comme une étape importante dans l’histoire de l’informatique personnelle.

Le succès de CP/M illustre l’importance des standards ouverts et de la compatibilité logicielle dans le développement de l’industrie informatique. En permettant le développement d’un écosystème de logiciels indépendants du matériel, CP/M contribue à transformer les micro-ordinateurs d’outils spécialisés en plateformes généralistes accessibles à tous. Cette standardisation favorise l’émergence d’un marché du logiciel indépendant, préfigurant le modèle économique dominant de l’industrie informatique personnelle.

Haut de page

Diffie-Hellman

Dans les années 1970, la cryptographie vivait dans un monde clos. Les militaires et les gouvernements détenaient les clés de cette science secrète, laissant le reste de la société se débrouiller avec des communications peu sécurisées. Les systèmes d’alors imposaient une contrainte de taille : deux personnes souhaitant échanger des messages secrets devaient d’abord se rencontrer physiquement pour partager une clé commune. Imaginez devoir traverser l’Atlantique pour remettre en main propre un code secret avant de pouvoir envoyer un simple télégramme chiffré !

Whitfield Diffie et Martin Hellman, deux chercheurs de Stanford, ont bouleversé cette logique en 1976. Leur article New Directions in Cryptography, paru dans les IEEE Transactions on Information Theory, proposait l’impensable : créer un secret partagé entre deux inconnus sans qu’ils aient jamais échangé la moindre information confidentielle. Cette idée paraissait aussi absurde que de demander à deux personnes de choisir la même carte dans un jeu mélangé sans se concerter.

Le tour de force reposait sur l’arithmétique modulaire et les propriétés fascinantes des fonctions à sens unique. Diffie et Hellman ont exploité le fait qu’il est facile de calculer gx mod p mais extraordinairement difficile de retrouver x en connaissant seulement le résultat. Chaque participant génère son nombre secret, en calcule une version publique qu’il transmet ouvertement, puis combine cette information avec le nombre public de son correspondant. Par une sorte de magie mathématique, ils obtiennent tous deux un résultat secret identique.

Cette découverte a cassé les codes de la cryptographie traditionnelle. AT&T a vite saisi l’intérêt commercial de cette innovation en développant le système Common Channel Interoffice Signaling pour protéger leurs communications téléphoniques. Mais c’est avec l’explosion d’Internet dans les années 1990 que le protocole a trouvé sa véritable destinée. SSL, et son successeur TLS, ont intégré Diffie-Hellman au cœur de leurs mécanismes, transformant chaque connexion HTTPS en une démonstration vivante de cette prouesse mathématique.

La sécurité du protocole repose entièrement sur la difficulté du calcul des logarithmes discrets. Aucun ordinateur classique ne sait résoudre efficacement ce problème mathématique, ce qui explique pourquoi le protocole résiste depuis près de cinquante ans. Toutefois, l’ordinateur quantique menace cet équilibre. L’algorithme de Shor pourrait un jour transformer ce problème réputé insoluble en un simple exercice de calcul.

Les mathématiciens n’ont pas chômé pour adapter et améliorer le protocole original. Victor Miller et Neal Koblitz ont proposé en 1985 une variante utilisant les courbes elliptiques, baptisée ECDH. Cette version réduit drastiquement la taille des clés nécessaires tout en conservant un niveau de protection constant. Un véritable gain d’efficacité qui a séduit de nombreux développeurs soucieux d’optimiser leurs applications.

Le protocole Diffie-Hellman a fait émerger RSA, développé par Rivest, Shamir et Adleman en 1978, et inspiré toute une génération de cryptographes. Cette innovation a aussi démocratisé la recherche en cryptographie, brisant le monopole des agences secrètes et donnant naissance à une communauté académique mondiale.

La reconnaissance officielle a pris son temps. Diffie et Hellman ont reçu le prix Turing en 2015 seulement, près de quarante ans après leur découverte. Cette attente s’explique probablement par le climat de guerre froide qui entourait toute innovation cryptographique. D’ailleurs, des chercheurs britanniques du GCHQ avaient développé des idées similaires quelques années plus tôt, mais leurs travaux sont restés classifiés jusqu’en 1997. Une belle illustration de la manière dont le secret d’État peut parfois retarder le progrès scientifique.

L’arrivée annoncée de l’informatique quantique mobilise aujourd’hui les cryptographes du monde entier. Ils travaillent d’arrache-pied sur des variantes post-quantiques du protocole, explorant de nouveaux problèmes mathématiques résistants aux futures machines quantiques. Ces recherches prolongent l’esprit pionnier de Diffie et Hellman, poursuivant leur vision d’une cryptographie accessible à tous. Ils ont prouvé qu’une approche ouverte et académique de la cryptographie pouvait rivaliser avec les laboratoires gouvernementaux les plus secrets. Ce nouveau paradigme intellectuel a libéré la créativité des chercheurs et donné naissance à une industrie florissante de la sécurité informatique.

Chaque fois que vous vous connectez à votre banque en ligne ou que vous achetez quelque chose sur Internet, vous bénéficiez de l’héritage de ces deux visionnaires. Leur protocole continue de protéger des milliards de communications quotidiennes, témoignage vivant d’une époque où deux chercheurs ont su imaginer l’impossible et le transformer en réalité.

Haut de page

Altair 8800

En janvier 1975, quand MITS (Micro Instrumentation and Telemetry Systems) lance l’Altair 8800, personne ne soupçonne que cette petite boîte métallique vendue moins de 400 dollars va bouleverser le monde informatique. Pourtant, ce premier ordinateur personnel à connaître un vrai succès commercial vient de naître dans les locaux d’une entreprise au bord de la faillite.

L’histoire débute avec H. Edward Roberts, un diplômé en génie électrique de l’Oklahoma State University qui a servi comme officier dans l’US Air Force. Au laboratoire d’armement d’Albuquerque, il rencontre Forrest Mims III. Ensemble, ils travaillent sur des projets de lasers et de fusées pour modèles réduits. Cette collaboration donne naissance à MITS en 1969, une société spécialisée dans les instruments de télémétrie pour l’aéromodélisme.

Puis l’entreprise se tourne vers les calculatrices électroniques et connaît quelques belles années. Mais en 1974, la concurrence des gros fabricants fait s’effondrer les prix. Roberts voit son chiffre d’affaires chuter brutalement. Il lui faut trouver autre chose, vite. C’est alors qu’il imagine un ordinateur personnel abordable, une idée qui paraît folle quand l’informatique représente l’apanage des grandes entreprises et des universités.

Le microprocesseur Intel 8080 vient d’arriver sur le marché. Ce composant 8 bits surpasse largement son prédécesseur, l’Intel 8008. Roberts y voit l’occasion de construire sa machine. L’architecture de l’Altair tire parti des capacités du processeur : un bus d’adressage 16 bits accédant à 65 000 mots mémoire, un jeu de 78 instructions de base, et surtout un système de bus extensible. La configuration de base ne propose que 256 mots de mémoire vive, extensible par l’utilisateur selon ses besoins et son budget.

Le panneau avant de l’Altair frappe par sa complexité apparente. Des rangées d’interrupteurs et de LED permettent la programmation directe en langage machine. Une approche spartiate qui décourage les non-initiés, mais qui correspond aux contraintes de coût de l’époque.

Roberts mise tout sur un article dans Popular Electronics de janvier 1975. Avec William Yates, il rédige un papier au titre accrocheur : « World’s First Minicomputer Kit to Rival Commercial Models ». Le magazine sort en décembre 1974, et l’effet dépasse toutes les espérances. MITS espérait écouler quelques centaines d’exemplaires ; les commandes arrivent par milliers dès les premiers jours.

Cette déferlante révèle l’existence d’un marché que personne n’avait vraiment imaginé. L’Altair attire deux jeunes étudiants de Harvard, Paul Allen et Bill Gates, qui développent un interpréteur BASIC pour la machine. C’est la naissance de Microsoft. En mars 1975, le Homebrew Computer Club se forme autour de l’Altair dans la Silicon Valley. Steve Wozniak y fait ses premières armes et y présente les travaux qui mèneront à la création d’Apple Computer.

L’influence technique de l’Altair va jusqu’à rendre son bus système une norme connue sous le nom de S-100. De nombreux fabricants adoptent cette architecture pour leurs propres machines. L’Altair utilise le système d’exploitation CP/M, qui dominera le marché des micro-ordinateurs jusqu’à l’arrivée du PC IBM et de MS-DOS. L’approche modulaire, avec ses cartes d’extension, inspire toute une génération d’ordinateurs.

Les limites de la machine reflètent l’état de la technologie en 1975. Pas d’écran, pas de clavier dans la version standard. La programmation passe par les interrupteurs du panneau avant, exercice laborieux qui rebute les néophytes. La mémoire est peu abondante et il faut attendre les extensions pour disposer de vrais moyens de stockage. Mais ces contraintes stimulent la créativité : une multitude de fabricants développent des cartes et des périphériques compatibles, créant un véritable écosystème.

MITS découvre les joies et les peines du succès inattendu. L’entreprise peine à honorer les commandes et à maintenir un niveau de qualité acceptable sur des kits assemblés à la main. Le support technique, assuré notamment par le bulletin Computer Notes, ne suffit pas toujours face aux questions d’utilisateurs parfois dépassés par la complexité de leur acquisition. Ces difficultés de jeunesse n’empêchent pas le succès, mais elles illustrent les défis de la création d’un nouveau marché.

L’aventure de l’Altair s’achève en 1977 avec la vente de MITS à Pertec Computer Corporation. La production s’arrête, mais l’héritage perdure. La machine a prouvé qu’un ordinateur personnel pouvait être commercialement viable et techniquement crédible. Elle a donné naissance à une communauté de passionnés qui préfigure la culture informatique moderne.

L’Altair 8800 marque la frontière entre deux mondes : celui des ordinateurs institutionnels, réservés aux initiés, et celui de l’informatique personnelle, promise à tous. Son architecture ouverte et modulaire pose les bases de principes qui gouvernent encore l’industrie. L’enthousiasme qu’il déclenche parmi les amateurs transforme une curiosité technique en mouvement culturel. Plus qu’une prouesse d’ingénierie, l’Altair démontre qu’un autre rapport à l’informatique est possible.

Haut de page

X.25

En 1976, quand le Comité consultatif international téléphonique et télégraphique adopte X.25, personne ne se doute que ce protocole survivra plus de trente ans. Pourtant, cette norme technique née des débats acharnés entre ingénieurs français et britanniques va façonner durablement l’architecture des réseaux de données.

Les premières interrogations sur l’avenir des communications numériques émergent. Arpanet fait ses premiers pas outre-Atlantique depuis 1969, mais en Europe, la situation diffère radicalement. Les administrations des télécommunications règnent sans partage sur les infrastructures. En France, la Direction générale des télécommunications tient les rênes, tout comme le British Post Office au Royaume-Uni. Ces monopoles publics ne voient pas d’un bon œil l’anarchie relative qui caractérise les développements américains.

La commutation par paquets cristallise les passions techniques. Cette méthode, qui découpe les messages en petites portions pour optimiser leur circulation, divise la communauté scientifique. D’un côté, Rémi Després du CNET défend mordicus les circuits virtuels : chaque communication emprunte un chemin prédéterminé dans le réseau, ce qui garantit un certain ordre. De l’autre, Louis Pouzin et son équipe de l’IRIA militent pour les datagrammes : les paquets naviguent librement, trouvant leur route au gré des disponibilités du réseau.

Cette querelle technique cache des enjeux bien plus vastes. Les circuits virtuels séduisent les opérateurs téléphoniques traditionnels par leur prévisibilité. Ils rappellent l’univers familier de la commutation téléphonique classique, où chaque appel établit un circuit dédié. Les datagrammes, eux, incarnent une philosophie différente, plus proche de l’esprit libertaire qui souffle sur les campus américains.

Le processus d’adoption au CCITT ressemble à une partie d’échecs diplomatique. Larry Roberts, pourtant père d’Arpanet, soutient paradoxalement les circuits virtuels depuis sa société privée. Mais sans droit de vote, son influence est limitée. Situation similaire pour les Canadiens de Bell Canada, qui développent pourtant Datapac sur cette base technique.

Le tournant survient avec le ralliement inattendu du British Post Office aux thèses françaises. Halvor Bothner, le rapporteur norvégien, abandonne alors sa position initiale. Lui qui avait forgé le terme « datagramme » se range finalement du côté des circuits virtuels. Cette volte-face scelle le sort de X.25, adopté en mars 1976 puis confirmé solennellement à l’automne.

L’ironie veut que cette victoire française profite immédiatement à l’international. L’Espagne et les Pays-Bas bâtissent leurs réseaux nationaux sur X.25. Bell Canada l’intègre dans Datapac, validant ainsi les choix techniques européens. IBM, toujours pragmatique, adapte dès 1975 ses équipements à cette norme.

En France, X.25 trouve son apothéose avec Transpac. Ce réseau national supportera pendant plus de trois décennies le trafic du Minitel, de 1980 à 2012. Performance remarquable pour une technologie que d’aucuns jugeaient dépassée dès les années 1990. Les banques, en particulier, lui restent fidèles : sa fiabilité et sa sécurité intrinsèques correspondent parfaitement à leurs exigences strictes.

L’émergence d’Internet aurait pu sonner le glas de X.25. TCP/IP, héritier direct des datagrammes de Pouzin, s’impose progressivement comme la norme de fait. Mais X.25 résiste dans ses créneaux spécialisés. Le Costa Rica l’utilisait encore en 1999, la France jusqu’en 2012. Cette longévité contraste avec l’échec retentissant de l’OSI, ce projet pharaonique de l’ISO qui prétendait normaliser l’ensemble des communications informatiques.

X.25 illustre parfaitement les caprices de l’innovation technique. Une norme peut naître d’un compromis politique, s’épanouir dans des usages inattendus et survivre bien au-delà de ses prévisions initiales. Elle témoigne aussi de la capacité des ingénieurs français à peser dans les débats techniques internationaux, quand la qualité technique rencontre l’habileté diplomatique.

Cette histoire révèle surtout la complexité des écosystèmes technologiques. Contrairement aux idées reçues, la « meilleure » solution technique ne s’impose pas toujours. X.25 et TCP/IP ont cohabité pendant des décennies, chacun répondant à des besoins spécifiques. Cette coexistence paisible tranche avec les guerres de standards qui agitent régulièrement le monde informatique.

Haut de page

Cray-1

L’année 1976 voit naître une machine qui va redéfinir les limites du calcul scientifique. Le Cray-1, fruit de l’obsession technique de Seymour Cray, émerge d’un parcours déjà remarquable dans l’univers des supercalculateurs. Cray avait signé auparavant les Control Data 6600 et 7600, deux références qui avaient installé sa réputation d’architecte visionnaire. Mais cette fois, il s’agit d’autre chose : construire la machine la plus rapide jamais conçue.

En 1972, Cray quitte Control Data pour créer sa propre société, Cray Research. L’objectif affiché tient en quelques mots : bâtir l’ordinateur le plus puissant au monde. Quatre années de développement intensif aboutissent à une réalisation spectaculaire. Le Cray-1 frappe d’abord par son allure : un cylindre de 2,75 mètres de diamètre, haut de près de 2 mètres, qui tranche avec l’esthétique rectangulaire habituelle des ordinateurs. Cette forme circulaire n’a rien d’un caprice esthétique. Elle répond à une contrainte technique implacable : raccourcir au maximum les liaisons entre composants pour gagner quelques nanosecondes précieuses.

Les chiffres donnent le vertige. La machine atteint 80 millions d’opérations en virgule flottante par seconde en fonctionnement normal, avec des pointes à 250 millions. Une performance qui pulvérise tous les records établis. Cette puissance brute s’appuie sur une innovation décisive : l’architecture vectorielle. Le Cray-1 traite simultanément des séries entières de données grâce à une technique de « chaînage » qui orchestre huit registres vectoriels de 64 éléments chacun.

Sous son habillage futuriste, la machine cache une philosophie de conception d’une simplicité déconcertante. Seymour Cray n’utilise que quatre types de circuits intégrés différents : des portes NAND 5/4, des puces mémoire et des registres, tous basés sur la technologie ECL. Cette approche minimaliste dissimule pourtant une complexité vertigineuse : 1 662 modules répartis sur 113 types différents, chaque module pouvant embarquer jusqu’à 288 circuits intégrés. L’ensemble mobilise l’équivalent de 2,5 millions de transistors.

La densité électronique génère un défi thermique redoutable. Concentrer autant de composants dans un espace aussi réduit produit une chaleur que les systèmes de refroidissement traditionnels ne peuvent évacuer. Cray développe alors une solution au fréon d’une sophistication remarquable. Des barres de refroidissement en aluminium et acier inoxydable serpentent dans chaque colonne de la machine, maintenant une température stable de 21°C. Cette prouesse technique conditionne le fonctionnement fiable de l’ensemble.

La mémoire atteint un million de mots de 64 bits, organisée en 16 bancs indépendants. Cette architecture offre la possibilité d’accéder simultanément aux données depuis plusieurs processus, réduisant les temps d’attente qui pénalisent les performances. Un système SECDED protège l’intégrité des calculs en corrigeant automatiquement les erreurs simples et en détectant les erreurs doubles.

Le succès commercial dépasse toutes les prévisions. Entre 1976 et 1982, Cray Research écoule environ 80 machines au prix unitaire de 19 millions de dollars. Les premiers clients comptent des centres de recherche gouvernementaux américains, mais aussi des institutions européennes comme le Centre Européen pour les Prévisions Météorologiques à Moyen Terme. Cette dimension internationale confirme l’avance technologique prise par Cray.

Les domaines d’application révèlent la polyvalence de la machine. Météorologie, aéronautique, recherche nucléaire : partout où la simulation numérique exige des calculs intensifs en virgule flottante, le Cray-1 excelle. Sa capacité à résoudre rapidement des systèmes d’équations différentielles complexes ouvre de nouvelles perspectives à la modélisation scientifique.

L’influence technique va bien au-delà des performances brutes. Le système d’exploitation et le compilateur FORTRAN, spécialement optimisés pour exploiter l’architecture vectorielle, établissent de nouveaux standards. La programmation s’avère plus accessible que sur des concurrents comme l’ILLIAC IV, favorisant l’adoption par la communauté scientifique.

Le développement s’accompagne d’enjeux considérables. La mise au point du système de refroidissement mobilise dix-huit mois de recherche intensive. La fabrication des cartes à cinq couches, avec leurs interconnexions d’une précision extrême, repousse les limites des techniques. Ces contraintes stimulent des innovations dont bénéficie l’ensemble de l’industrie.

En 1990, quatorze ans après sa mise en service, le Lawrence Livermore National Laboratory retire son Cray-1, dépassé par les nouvelles générations. La machine est vendue aux enchères en 1993 pour 10 000 dollars, soit 0,05% de son prix initial. Cette chute vertigineuse illustre l’accélération du progrès technologique dans les supercalculateurs.

Le Cray-1 cristallise une époque où la recherche de la performance absolue guidait l’innovation. Son influence perdure dans les principes de conception actuels : optimisation des communications inter-composants, gestion thermique sophistiquée, architecture simplifiée malgré la complexité des défis techniques. La machine incarne la vision de Seymour Cray, qui privilégiait l’élégance et la cohérence dans la quête de l’excellence technique.

Cette réalisation démontre qu’une architecture audacieuse, soutenue par une ingénierie méticuleuse, a les moyens de repousser spectaculairement les frontières du calcul scientifique. Les principes établis par le Cray-1 confirment sa place d’étape fondatrice dans l’évolution de l’informatique de haute performance.

Haut de page

UUCP

En 1976, Mike Lesk travaille sur un problème concret aux Bell Labs. L’ARPANET existe déjà, certes, mais son accès demeure l’apanage d’un cercle restreint : en janvier de cette année, seuls 63 hôtes y sont connectés. Pour les utilisateurs d’UNIX dispersés aux quatre coins des États-Unis, échanger des fichiers ou exécuter des commandes à distance relève du parcours du combattant. Lesk conçoit UNIX-to-UNIX Copy Protocol (UUCP), une solution pragmatique qui transforme les lignes téléphoniques ordinaires en artères numériques.

La première mouture d’UUCP intègre UNIX en février 1978. Le protocole fonctionne sur des liaisons à 300 bauds, une vitesse qui paraît dérisoire mais qui représentait un progrès notable. Quelques mois plus tard, en octobre, la Seventh Edition d’UNIX embarque une version remaniée du protocole. Lesk s’associe cette fois à Dave Nowitz, avec l’aide de Greg Chesson, pour corriger les défauts de jeunesse du système initial.

Fin 1979 à l’Université de Caroline du Nord, Steve Bellovin, étudiant cherchant à maîtriser les subtilités du système, développe un modeste programme de diffusion de nouvelles. Parallèlement, Tom Truscott et Bellovin expérimentent une liaison UUCP entre l’UNC et Duke University. De cette expérimentation naît une idée qui va transformer l’usage d’UUCP : pourquoi ne pas distribuer des informations vers d’autres sites en utilisant Duke comme plaque tournante ? Les sites éloignés remboursaient Duke pour les frais de téléphone, un système rudimentaire mais efficace.

Au début de 1980, le réseau compte trois participants : UNC, Duke University et le département de physiologie du centre médical de Duke. Jim Ellis présente le concept lors d’une réunion USENIX à Boulder en janvier. L’accueil est favorable. Steve Daniels produit une implémentation du logiciel baptisé A News, distribuée sur la bande USENIX de l’été 1980 à Newark. Le réseau s’étend à 15 sites.

Armando Stettner et Bill Shannon, travaillant chez Digital Equipment Corporation, proposent un marché séduisant à l’Université de Californie à Berkeley : ils prennent en charge les coûts de connexion de Berkeley en échange d’un accès au réseau via leur machine decvax, située dans le New Hampshire. Stettner ne s’arrête pas là et finance les premières connexions internationales vers l’Europe, le Japon et l’Australie.

Le réseau reçoit le nom d’Usenet, en hommage à USENIX. La croissance dépasse toutes les prévisions : en un an, plus de 100 sites échangent environ 25 articles quotidiens. Cette expansion révèle les faiblesses du système initial. Mark Horton, étudiant à Berkeley, s’associe à Matt Glickman, alors lycéen, pour réécrire intégralement A News. Leur création, B News, voit le jour en 1981. Horton continue d’affiner son œuvre jusqu’en 1984, avant de passer le relais à Rick Adams du Center for Seismic Studies.

En juin 1984, une carte géographique d’USENET révèle l’ampleur du phénomène. Les connexions s’étendent désormais jusqu’en Australie, à Hawaï, au Canada et en Europe. La version 2.11 de B News, parue en 1986, intègre les contributions de Rick Adams, Spencer Thomas, Ray Essick et Rob Kolstad. Bien que de nouvelles versions paraissent jusqu’en 1994, le système montre ses limites dès 1989.

Le protocole NNTP (Network News Transfer Protocol), publié en février 1986 par Brian Kantor et Phil Lapsley, annonce une nouvelle ère. Un an plus tard, Geoff Collyer et Henry Spencer de l’Université de Toronto lancent C News, une alternative plus performante qui enterre définitivement les anciens systèmes.

La question financière obsède les acteurs du réseau. Lauren Weinstein présente en 1984 lors de la conférence USENIX d’été le projet Stargate, une proposition audacieuse qui consiste à utiliser les portions inutilisées du signal vidéo télévisé pour transporter des données ASCII à 65 kbps. Malgré le soutien de plusieurs entreprises et des tests concluants, le projet s’enlise et finit par être abandonné.

Face aux insuffisances des réseaux commerciaux existants, Rick Adams propose à USENIX en 1985 de créer un site central accessible via Tymnet. UUNET naît en 1987 avec un budget initial de 35 000 dollars. Le service répond à un besoin réel : nombreux sont ceux qui perdent leur accès e-mail et Usenet en changeant d’employeur. Le succès dépasse les espérances. Installé sur un ordinateur Sequent B21 à 16 processeurs, UUNET compte plus de 50 abonnés dès juin 1987 et quelques milliers cinq ans plus tard.

UUNET participe en 1991 à la création de la Commercial Internet Exchange Association. L’année suivante, l’entreprise co-fonde MAE-East avec Metropolitan Fiber Systems, point d’échange Internet le plus important au monde l’espace de quelques temps. L’entrée en bourse intervient en mai 1995, consacrant le succès commercial du concept.

La réussite d’UUCP tient à ses caractéristiques techniques novatrices. Le système fonctionne de manière asynchrone, avec une mise en file d’attente des tâches. Les transmissions s’effectuent en arrière-plan, s’accommodant des contraintes des lignes téléphoniques souvent occupées. Le protocole ne nécessite aucune modification du système d’exploitation et s’adapte aussi bien aux connexions directes qu’aux modems.

L’aspect sécuritaire n’est pas négligé. Chaque site configure les fichiers et commandes accessibles aux systèmes distants. L’authentification repose sur des mots de passe, et certains sites utilisent le rappel automatique pour vérifier l’identité des appelants. Des compteurs de séquence peuvent être activés pour contrer les tentatives d’usurpation d’identité.

UUCP perdure jusqu’aux années 1990, notamment dans les situations où une connexion Internet permanente est inaccessible ou trop onéreuse. Sur les lignes séries lentes, il se montre plus efficace que TCP/IP. Son architecture par lots convient parfaitement au transport du courrier électronique et des news Usenet.

L’héritage d’UUCP traverse les décennies. La syntaxe des adresses e-mail (user@host) lui doit son existence, tout comme certains mécanismes de routage du courrier électronique. Le protocole démontre qu’il est possible de bâtir des réseaux informatiques décentralisés à grande échelle en s’appuyant sur les infrastructures de télécommunication existantes. Son influence se retrouve dans le développement ultérieur d’Internet et des technologies de communication asynchrone.

Haut de page

Apple I

C’était en 1975, dans ce bouillonnement intellectuel qu’était le Homebrew Computer Club de la Silicon Valley. Steve Wozniak, figure discrète mais passionnée de ces réunions d’amateurs d’électronique, avait bricolé quelque chose d’inhabituel : un ordinateur qu’il voulait présenter aux autres membres du club. Son ami Steve Jobs, rencontré quatre ans plus tôt, flaire immédiatement autre chose qu’un simple projet de passionné.

Le cœur de cette machine repose sur un microprocesseur MOS Technology 6502 qui tourne à 1,023 MHz. Wozniak a eu l’idée d’intégrer une interface vidéo directement dans son système, capable d’afficher 24 lignes de 40 caractères sur n’importe quel téléviseur standard. C’était loin d’être évident. La machine embarque 4 Ko de mémoire vive, extensible jusqu’à 8 Ko, avec des registres à décalage dynamiques qui gèrent l’affichage.

Tout bascule quand Paul Terrell débarque. Ce propriétaire du Byte Shop, une boutique informatique de Mountain View, commande carrément 50 machines d’un coup. Jobs et Wozniak se regardent : ils n’ont ni l’argent ni l’infrastructure pour produire quoi que ce soit à cette échelle. Wozniak sacrifie sa précieuse calculatrice HP-65, Jobs sa camionnette Volkswagen. Avec cet argent et un crédit de 30 jours négocié auprès des fournisseurs, ils se lancent dans l’aventure.

Contrairement à la légende du garage familial, la réalité de la production se révèle plus prosaïque. Les cartes sont manufacturées et soudées par vague dans une véritable usine, probablement Santa Clara Circuits. Le fameux garage des parents Jobs sert surtout aux tests finaux et à l’assemblage. Daniel Kottke, copain de Jobs, passe ses soirées à tester les machines pendant que Wozniak intervient pour dépanner les cas les plus tordus.

L’Apple I arrive sur le marché sous une forme qui surprend. Pas de boîtier, pas de clavier, pas d’écran : juste une carte mère nue que l’acheteur doit compléter selon ses moyens et ses envies. Paul Terrell tombe des nues quand il reçoit sa commande. Il s’attendait à des ordinateurs complets, pas à des cartes électroniques. Le prix affiché fait 666,66 dollars, non par provocation mais parce que Wozniak adore les chiffres qui se répètent.

Côté logiciel, l’Apple I reste spartiate. Un petit moniteur en mémoire morte autorise la saisie de programmes directement en langage machine. Wozniak développe ensuite son propre interpréteur BASIC, inspiré de son expérience chez HP avec les calculatrices. Mais ce BASIC traîne quelques casseroles : impossible de manipuler des décimales ou des nombres au-delà de 32 767, une limitation qui embarrassera aussi la première mouture de l’Apple II.

L’interface cassette audio, ajoutée plus tard, tourne au cauchemar. Liza Loop, première acheteuse officielle, galère comme beaucoup d’autres utilisateurs avec son Apple I qui refuse de coopérer. Wozniak, génial sur le numérique, patauge un peu quand il faut s’attaquer à l’électronique analogique. L’Apple II bénéficiera heureusement du renfort d’autres ingénieurs pour corriger le tir.

Pourtant, Wozniak glisse ses trouvailles techniques remarquables dans sa conception. Il détourne astucieusement les compteurs du circuit vidéo pour rafraîchir la mémoire vive, une technique qu’il affinera sur l’Apple II. Le circuit vidéo garde ses mystères : certaines parties restent obscures, y compris pour Wozniak, qui s’est peut-être inspiré du « TV Typewriter » de Don Lancaster, publié dans Radio-Electronics en 1973.

Au final, moins de 200 Apple I sortent des chaînes de production. Un score modeste qui ne présage en rien du raz-de-marée qui suivra. Aujourd’hui, entre 30 et 50 exemplaires survivent dans les collections privées ou les musées. Certains proviennent d’employés d’Apple qui les ont récupérés dans les années 1970 parmi les invendus ou les retours clients.

L’Apple I n’a jamais été un succès commercial, mais il forge quelque chose d’infiniment plus précieux : l’expérience. Jobs et Wozniak apprennent sur le tas les ficelles de la conception, de la production et de la vente d’ordinateurs. Chaque défaut de l’Apple I est une leçon pour l’Apple II, qui explosera tous les compteurs avec plus de 6 millions d’exemplaires écoulés sur seize ans.

Cette première machine, au-delà d’une anecdote technique, matérialise l’idée qu’un ordinateur est en mesure de s’adresser au grand public, sortir des laboratoires et des universités pour atterrir chez monsieur « Tout-le-monde ». L’Apple I ouvre une brèche dans laquelle s’engouffreront des millions d’autres machines.

Il témoigne aussi de cette époque bénie où quelques passionnés d’électronique, armés de leur seule ingéniosité et de quelques milliers de dollars, pouvaient chambouler un secteur entier. L’histoire de sa création cristallise parfaitement cette alchimie entre le génie technique de Wozniak et l’instinct commercial de Jobs, une recette qui propulsera Apple vers des sommets inimaginables.

Haut de page

vi

En 1976, à l’université de Berkeley, Bill Joy se retrouve face à un problème que connaissent tous les programmeurs de cette période : comment éditer du texte de manière décente sur un système UNIX ? Les outils disponibles, comme ed, relèvent plus de la torture intellectuelle que de l’aide à la programmation. Peter H. Salus n’hésite d’ailleurs pas à les qualifier d’« éditeurs les plus hostiles jamais créés ». Imaginez-vous travailler ligne par ligne, sans jamais voir l’ensemble de votre texte !

Joy, étudiant diplômé, ne se contente pas de subir cette situation. Il travaille déjà sur un interpréteur Pascal et collabore avec Chuck Haley pour améliorer ed. L’université dispose d’un PDP-11, machine bien modeste comparée aux PDP-10 que s’offrent MIT ou Stanford. Cette contrainte matérielle les pousse à innover différemment, à chercher l’efficacité plutôt que la puissance brute.

L’été 1976 apporte un déclic inattendu. Joy et Haley découvrent em (Editor for Mortals), création de George Coulouris à Queen Mary College. Voilà un éditeur qui ose afficher deux messages d’erreur au lieu d’un seul et propose une approche plus visuelle de l’édition. Rien de fulgurant en soi, mais suffisant pour déclencher l’inspiration. Les deux complices développent alors ex, dont le mode « visual » donnera naissance au nom « vi ».

La genèse de vi tient du hasard autant que du génie. Joy se souvient avoir conçu l’interface un samedi de 1976, la radio en fond sonore diffusant les questions-réponses de Jimmy Carter fraîchement élu. Cette anecdote révèle l’atmosphère détendue dans laquelle naît un outil destiné à marquer l’histoire de l’informatique. L’éditeur intègre ses innovations tout en s’adaptant aux terminaux existants, notamment les ADM-3A. Le fameux système de modes – normal, insertion, commande – découle naturellement de ces contraintes techniques et de l’art de tirer le meilleur parti de chaque touche.

Joy ne s’embarrasse pas de circuits commerciaux sophistiqués pour diffuser sa création. Il propose des copies sur bandes magnétiques 9 pistes pour 50 dollars, dont 40 servent à financer le développement. Cette distribution artisanale rencontre un succès inattendu : des centaines de copies partent ainsi vers des universités et laboratoires. La supériorité technique de vi sur ses concurrents explique cet engouement, renforcé par sa distribution avec BSD, la version Berkeley d’UNIX.

L’arrivée des VAX en 1977-1978 donne un second souffle au projet. Joy adapte vi aux capacités de ces nouvelles machines, exploitant notamment la mémoire virtuelle. Le développement progresse bien jusqu’à un incident technique qui change tout : une panne de lecteur de bande fait perdre le code source. Les fonctionnalités avancées prévues, comme le support multi-fenêtres, sont abandonnées. Joy préfère stabiliser l’existant et produire une documentation correcte.

L’histoire prend une tournure surprenante quand AT&T incorpore vi dans UNIX System V. Joy apprend cette nouvelle après coup, découvrant son éditeur comme standard dans tout l’univers UNIX. Cette décision s’explique par l’adoption massive de vi dans les Bell Labs eux-mêmes. Paradoxalement, cette popularité créait des problèmes : chaque équipe maintenait sa propre copie, gaspillant la mémoire des machines.

vi établit une philosophie d’édition qui divise encore. Son système modal demande un apprentissage initial conséquent, mais offre ensuite une puissance de manipulation textuelle inégalée. Les uns le trouvent trop complexe, les autres ne jurent que par son efficacité une fois maîtrisé. Cette dualité traverse les décennies sans perdre de sa pertinence.

Les années 1990 voient naître vim (Vi IMproved), qui prolonge l’héritage de l’éditeur original tout en ajoutant les fonctionnalités attendues par les utilisateurs modernes. vi est présent sur tous les systèmes UNIX et leurs descendants, Linux et macOS inclus. Son influence dépasse ces frontières et nombre d’éditeurs modernes proposent un « mode vi » pour séduire ses adeptes.

Cette pérennité étonne dans un domaine où l’obsolescence est rapide. Un outil conçu dans les années 1970 continue de servir quotidiennement des millions d’utilisateurs. Cette longévité tient à son efficacité redoutable pour certaines tâches, sa présence universelle, et sa fiabilité éprouvée. Les administrateurs système et programmeurs apprécient sa disponibilité garantie et sa stabilité à toute épreuve.

L’aventure de vi illustre l’importance des choix initiaux dans la conception logicielle. Les contraintes qui ont guidé Joy – économie de mémoire, exploitation optimale du clavier, compatibilité avec les terminaux limités – ont produit un outil dont l’utilité traverse les époques technologiques. Cette réussite rappelle qu’un bon logiciel ne se juge pas seulement à ses fonctionnalités, mais à sa cohérence conceptuelle et à sa réponse aux besoins fondamentaux des utilisateurs. Cinquante ans après sa création, vi continue de prouver cette vérité tous les jours.

Haut de page

DEC VAX-11

Au milieu des années 1970, les ordinateurs centraux règnent encore sur les grandes organisations, tandis que les mini-ordinateurs 16 bits de Digital Equipment Corporation dominent un marché en pleine expansion. Mais chez DEC, quelques ingénieurs visionnaires comprennent qu’ils touchent aux limites de cette architecture. Les programmes grossissent, les données se multiplient, et les 16 bits montrent leurs faiblesses.

En mars 1975, une équipe se forme discrètement dans les bureaux de Maynard, Massachusetts. Leur mission : concevoir une architecture 32 bits innovante. Le projet porte des noms de code poétiques : « Star » pour le matériel, « Starlet » pour le système d’exploitation. Cette approche inhabituelle frappe d’emblée : contrairement aux habitudes où matériel et logiciel évoluent séparément, les équipes travaillent main dans la main depuis le premier jour.

Trois cents années-homme de développement intensif s’écoulent avant que DEC ne dévoile son chef-d’œuvre. Le 25 octobre 1977, lors de l’assemblée annuelle des actionnaires, la présentation du VAX-11/780 et de son système VMS marque les esprits. La démonstration choisie frôle l’audace : l’ordinateur affronte un humain au Scrabble. Le mot « sensibly » lui rapporte 127 points et la victoire. Ce clin d’œil ludique cache une réalité technique impressionnante : le VAX-11/780 combine la puissance d’un ordinateur central, l’interactivité d’un mini-ordinateur et un prix enfin abordable.

L’architecture du VAX-11/780 bouscule les conventions. La mémoire virtuelle sur 32 bits libère les programmeurs des contraintes d’adressage qui bridaient leurs ambitions. La correction d’erreur intégrée dans la mémoire, une première mondiale, transforme la fiabilité des systèmes. DEC assume une philosophie audacieuse : concevoir une machine destinée à durer quinze à vingt ans, tournant le dos à l’obsolescence programmée que pratiquent déjà ses concurrents.

Le marché répond avec enthousiasme. Dès 1979, les ventes de DEC franchissent le cap des 2 milliards de dollars. Les universités adoptent massivement ces machines pour leurs laboratoires de recherche. Les entreprises découvrent un outil capable de traiter leurs applications scientifiques les plus exigeantes. VMS, le système d’exploitation, impressionne par sa robustesse et ses fonctionnalités avancées.

La famille VAX s’étend progressivement. Le VAX-11/750 arrive en 1980 avec sa technologie de portes logiques semi-personnalisées. Deux ans plus tard, le VAX-11/730 démocratise l’accès à cette architecture. En 1984, le VAX 8600 établit de nouveaux records de performance avec une puissance quadruplée par rapport au modèle original.

Une innovation remarquable surgit en 1983 : les VAXclusters. Pour la première fois dans l’industrie, plusieurs ordinateurs VAX peuvent se connecter en réseau et former un système unique. Cette prouesse technique révolutionne la haute disponibilité. Les bourses, les systèmes de contrôle industriel, tous les environnements critiques s’emparent de cette technologie qui tolère les pannes comme aucune autre.

En 1985, le MicroVAX concentre toute l’architecture VAX sur une seule puce, rendant possible des systèmes plus compacts et moins onéreux. Le succès dépasse toutes les prévisions : 20 000 MicroVAX II trouvent preneur durant la première année de commercialisation.

L’évolution technique se poursuit à un rythme soutenu. Le CVAX de 1987 adopte la technologie CMOS, plus économe en énergie. Le processeur Rigel en 1989, puis le NVAX en 1991, repoussent sans cesse les limites de performance. Ce dernier atteint une vitesse trente fois supérieure à celle du VAX-11/780 qui avait tout commencé quatorze ans plus tôt.

VMS façonne l’évolution des systèmes d’exploitation. Conçu sur mesure pour le VAX, il établit des standards inédits de fiabilité et de sophistication fonctionnelle. L’intégration native de DECnet anticipe l’importance croissante des communications entre machines, préfigurant l’ère des réseaux informatiques.

Le début des années 1990 voit émerger les processeurs RISC 64 bits. DEC prépare sa transition vers l’architecture Alpha sans abandonner son héritage. VMS, rebaptisé OpenVMS, migre vers cette nouvelle plateforme tout en conservant le support des anciens systèmes. L’entreprise maintient sa production VAX, sortant le modèle 4000 en 1996.

Le succès du VAX repose sur un savant mélange d’ingrédients : puissance de calcul, fiabilité légendaire, système d’exploitation sophistiqué et support technique exceptionnel de DEC. Les anecdotes abondent sur cette robustesse hors norme. Ce VAX-11/780 qui continue de fonctionner après sa chute d’un chariot élévateur. Ces systèmes qui tournent des années sans interruption, défiant les lois de l’usure électronique.

L’architecture 32 bits du VAX influence la conception de nombreux processeurs modernes. Les concepts de VMS, gestion avancée de la mémoire virtuelle ou clustering, se retrouvent dans nos systèmes d’exploitation actuels. Cette philosophie de conception intégrée matériel-logiciel s’impose désormais comme une évidence dans toute l’industrie.

Le VAX témoigne d’une époque révolue où l’innovation informatique privilégiait la vision long terme et l’excellence technique plutôt que la course aux nouveautés. Sa longévité exceptionnelle – certains systèmes VAX fonctionnent encore de nos jours – valide cette approche. Au-delà de l’objet technique, le VAX incarne une étape fondatrice de l’histoire informatique, ce moment charnière entre l’ère des ordinateurs centraux et celle des systèmes distribués qui façonnent notre monde numérique.

Haut de page

RSA

En 1976, personne n’imaginait qu’un article de recherche publié par Whitfield Diffie et Martin Hellman allait bouleverser le monde de la cryptographie. Leur publication « New Directions in Cryptography » introduit une idée qui semblait relever de la pure théorie : la cryptographie asymétrique. Jusqu’à cette date, tous les systèmes cryptographiques fonctionnaient selon un principe unique : deux personnes qui souhaitaient communiquer de façon sécurisée devaient d’abord se rencontrer pour échanger une clé secrète. Cette contrainte paralysait le développement des communications numériques.

Le trio de chercheurs – Diffie, Hellman et Ralph Merkle – propose trois concepts qui vont révolutionner la discipline : le chiffrement à clé publique, la signature numérique et l’échange de clés. Leur article ne contient toutefois qu’une seule implémentation concrète, celle de l’échange de clés qui portera leurs noms. Ce protocole Diffie-Hellman constitue la première méthode pratique pour établir un secret partagé sans rencontre préalable.

L’année suivante, trois chercheurs du MIT vont franchir le pas décisif. Ron Rivest, Adi Shamir et Len Adleman forment une équipe aux talents complémentaires. Rivest excelle dans l’art d’appliquer des concepts théoriques à des problèmes concrets. Il dévore la littérature scientifique et génère un flux constant d’idées nouvelles. Shamir possède cette rare capacité à percer l’essence d’un problème au-delà de sa complexité apparente. Adleman, mathématicien rigoureux, évalue chaque proposition avec la précision d’un horloger suisse.

Pendant des mois, le trio explore diverses pistes sans succès. Puis arrive cette soirée d’avril 1977. Rivest a passé la soirée de Pessah chez un étudiant, où ils ont partagé du vin Manischewitz. De retour chez lui, incapable de dormir, il s’installe sur son canapé avec un manuel de mathématiques. La question qui l’obsède depuis un an tourne dans sa tête : existe-t-il une fonction mathématique facile à calculer dans un sens, mais impossible à inverser sans une information particulière ? Au lever du soleil, Rivest a rédigé l’intégralité de l’article décrivant le système RSA.

Le génie de cette découverte réside dans sa simplicité conceptuelle. Le système RSA s’appuie sur une propriété arithmétique fondamentale : multiplier deux nombres premiers est un jeu d’enfant, mais retrouver ces nombres à partir de leur produit est un cauchemar quand ils atteignent une taille respectable. Le système génère deux clés mathématiquement liées : une clé publique que chacun peut connaître, et une clé privée que seul son propriétaire détient. Ce qui est chiffré avec la première ne peut être déchiffré qu’avec la seconde.

Pour démontrer leur confiance dans ce nouveau système, les trois inventeurs lancent un défi audacieux dans les pages de Scientific American. Ils publient un nombre de 129 chiffres, fruit de la multiplication de deux nombres premiers secrets, accompagné d’un message chiffré. Cent dollars attendent celui qui parviendra à le déchiffrer avant le 1er avril 1982. Ce pari témoigne de leur conviction dans la robustesse mathématique de leur création.

RSA-129 résistera bien au-delà de l’échéance fixée. Il faudra attendre 1994 pour voir ce géant numérique s’effondrer sous l’assaut coordonné de 600 personnes réparties dans 24 pays. Arjen Lenstra, Paul Leyland, Michael Graff et Derek Atkins orchestrent cette entreprise collaborative qui mobilise 1 600 ordinateurs pendant sept mois. Le message secret révélé – « THE MAGIC WORDS ARE SQUEAMISH OSSIFRAGE » – récompense cette prouesse technique d’une poésie toute relative.

Cette victoire collective ne signe pas la mort du RSA mais illustre l’évolution permanente du rapport de force entre cryptographes et cryptanalystes. Au fil des décennies, de nombreuses attaques ont vu le jour, ciblant souvent les faiblesses d’implémentation plutôt que les fondements mathématiques du système. Michael Wiener démontre en 1990 qu’un exposant privé trop petit compromet la sécurité. Paul Kocher révèle en 1996 qu’une carte à puce peut trahir sa clé secrète par le simple temps qu’elle met à calculer. Daniel Bleichenbacher découvre en 1998 que certains messages d’erreur divulguent des informations précieuses à un attaquant patient.

Ces découvertes n’ont pas entamé la confiance placée dans le RSA, devenu l’un des piliers de l’internet moderne. Chaque fois que vous vous connectez à votre banque en ligne, que vous effectuez un achat ou que vous consultez votre messagerie, le RSA travaille en silence pour protéger vos données. Sa présence discrète mais omniprésente a rendu possible l’explosion du commerce électronique et la dématérialisation des services financiers.

Pourtant, une épée de Damoclès plane sur ce géant de la cryptographie. En 1994, Peter Shor publie un algorithme qui pourrait, sur un ordinateur quantique suffisamment puissant, factoriser efficacement de très grands nombres. Cette menace théorique stimule la recherche en cryptographie post-quantique, une course contre la montre pour développer de nouveaux systèmes avant que les ordinateurs quantiques ne soient réalité.

Quarante-cinq ans après sa naissance, le RSA conserve sa pertinence et sa fiabilité. Son parcours démontre qu’une innovation est en mesure de transformer la société bien au-delà des intentions initiales de ses créateurs, alors que de nouveaux enjeux cryptographiques émergent avec l’avènement de l’ère quantique.

Haut de page

Apple II

Avec la sortie de l’Apple II en 1977, Steve Wozniak et Steve Jobs ne se contentent plus de bricoler dans un « garage », ils veulent conquérir le grand public. Leur première machine grand public ne ressemble en rien aux kits électroniques qui encombrent alors les clubs d’informatique. Fini les cartes mères nues et les boîtiers de fortune : l’Apple II se présente dans un élégant coffrage en plastique beige, clavier intégré, prêt à l’emploi.

Wozniak a conçu l’architecture autour du microprocesseur 6502, moins cher que l’Intel 8080 qui équipe ses concurrents. Son génie technique transparaît dans la sobriété du circuit imprimé, où chaque composant trouve sa place avec une économie de moyens remarquable. La machine démarre avec 4 Ko de mémoire vive, extensible jusqu’à 48 Ko, et embarque l’Integer BASIC directement en mémoire morte. Mais ce qui frappe d’emblée, c’est la gestion native des couleurs et du son. Wozniak avait d’ailleurs développé ces fonctionnalités dans un but précis : programmer Breakout en BASIC.

Jobs, lui, pense marketing et design. Il refuse catégoriquement les boîtiers métalliques qui donnent aux ordinateurs des airs d’équipement industriel. Jerry Manock dessine un coffrage en plastique moulé aux angles arrondis, avec cette forme caractéristique en biseau qui deviendra la signature visuelle d’Apple. L’appareil devra trouver sa place dans un salon comme n’importe quel téléviseur.

La commercialisation démarre en juin 1977 à 1 298 dollars pour la configuration de base. Le succès dépasse les espérances. Particuliers, écoles et petites entreprises se disputent la machine. L’architecture ouverte avec ses huit slots d’extension facilite les améliorations : mémoire supplémentaire, interfaces diverses, contrôleurs de disques. Un écosystème complet de fabricants tiers se développe.

Avec l’arrivée du lecteur de disquettes Disk II en 1978, Wozniak a frappé fort : pour 495 dollars, sa création offre 113 Ko de stockage sur des disquettes 5 pouces 1/4. Le système d’exploitation DOS, dans ses versions successives 3.1, 3.2 puis 3.3, simplifie la gestion des fichiers. Cette solution fiable et abordable ouvre définitivement les portes du marché professionnel à l’Apple II.

L’année 1979 restera dans les mémoires. Apple commercialise l’Apple II Plus qui remplace l’Integer BASIC par l’Applesoft BASIC en ROM, plus sophistiqué avec ses nombres à virgule flottante. La mémoire standard grimpe à 48 Ko. Mais surtout, VisiCalc fait son apparition. Ce premier tableur de l’histoire révolutionne l’usage de l’ordinateur en entreprise. Beaucoup achètent un Apple II uniquement pour faire tourner VisiCalc.

L’Apple IIe de 1983, véritable vedette de la gamme, possède 64 Ko de RAM extensibles à 128 Ko et un affichage 80 colonnes, le tout en faisant un outil de bureautique crédible. Le clavier complet avec minuscules facilite la saisie de texte. La compatibilité avec l’existant est totale, gage de pérennité des investissements logiciels.

Apple tente le pari de la compacité avec l’Apple IIc en 1984. Ce modèle intégré, lecteur de disquette incorporé, vise les foyers et les écoles. L’abandon des slots d’extension au profit de ports standardisés simplifie l’usage mais limite l’évolutivité. Son design soigné lui vaut plusieurs prix esthétiques, une première pour Apple.

Le chant du cygne arrive avec l’Apple IIGS en 1986. Son processeur 16 bits est compatible avec le 6502, ses capacités graphiques et sonores impressionnent, son interface s’inspire du Macintosh. Hélas, Apple mise déjà tout sur le Macintosh. L’IIGS, malgré ses qualités indéniables, reste dans l’ombre de son grand frère.

La production de l’Apple II s’arrête définitivement en 1993 après seize années d’une carrière exceptionnelle. Plus de six millions d’exemplaires vendus témoignent d’un succès qui dépasse le cadre informatique. Cette machine a démocratisé l’ordinateur personnel, prouvé qu’il pouvait être à la fois puissant et accessible.

Haut de page

Commodore P.E.T

En 1977, quand Commodore International dévoile son Personal Electronic Transactor, l’informatique domestique n’existe pratiquement pas. Les ordinateurs demeurent l’apanage des universités, des entreprises et de quelques passionnés capables d’assembler des kits complexes. Jack Tramiel, le patron de Commodore, flaire pourtant une opportunité. Les microprocesseurs voient leurs prix s’effondrer, et il imagine un appareil différent : un ordinateur complet, prêt à l’emploi, dans un seul boîtier.

Le P.E.T tranche avec tout ce qui existe alors. Fini les composants éparpillés sur plusieurs cartes, fini l’écran de télévision bricolé et le magnétophone détourné de sa fonction première. Commodore intègre tout : processeur, mémoire, écran monochrome de 9 pouces, clavier et lecteur de cassettes. Cette approche révèle une vision commerciale astucieuse. Là où d’autres fabricants s’adressent aux bricoleurs électroniques, Tramiel vise directement les futurs utilisateurs ordinaires.

Le cœur de la machine bat au rythme d’un processeur MOS Technology 6502 cadencé à 1 MHz. Ce choix technique, loin d’être anodin, s’appuie sur les qualités reconnues de ce composant : architecture simple, coût réduit et performances honorables. La mémoire RAM de 4 Ko représente un compromis raisonnable entre fonctionnalité et prix de revient. D’ailleurs, Commodore propose des versions étoffées à 8, 16 et 32 Ko.

Microsoft BASIC trône en mémoire morte, transformant instantanément le P.E.T en machine programmable dès sa mise sous tension. Cette version du langage, adaptée aux spécificités de l’ordinateur, intègre des commandes dédiées aux périphériques et aux capacités graphiques rudimentaires de l’écran. L’utilisateur a la possibilité de taper immédiatement ses premières lignes de code ou charger un programme depuis une cassette.

Car le stockage pose problème. Le Datasette de Commodore, dérivé d’un magnétophone classique, se révèle d’une lenteur exaspérante. Charger un programme de quelques kilo-octets nécessite de longues minutes d’attente, ponctuées de bips et de couinements caractéristiques. Pourtant, cette solution demeure la seule économiquement viable pour démocratiser l’accès à l’informatique. Les lecteurs de disquettes coûtent encore trop cher pour équiper massivement les foyers.

Les premiers utilisateurs découvrent les limites du clavier d’origine. Commodore a repris le principe des calculatrices de poche, avec des touches plates et rapprochées qui rendent la frappe pénible. Les protestations fusent, et la firme américaine rectifie le tir en proposant un clavier complet sur les modèles suivants. Cette réactivité face aux critiques témoigne d’une écoute attentive du marché.

L’écran du P.E.T affiche 40 colonnes sur 25 lignes en caractères verts sur fond noir. Pas de couleurs, pas de sprites animés comme sur les futures machines de jeu. Mais cette sobriété cache des possibilités insoupçonnées. Les programmeurs détournent ingénieusement les caractères semi-graphiques pour dessiner des formes, créer des interfaces rudimentaires ou concevoir des jeux d’action. Le P.E.T dispose aussi d’un mode haute résolution optionnel, le Visible Memory de MTU, qui autorise le contrôle individuel de chaque point à l’écran.

Dans les écoles, le P.E.T trouve sa place. Sa robustesse, son fonctionnement fiable et son prix abordable en font l’outil idéal pour initier les élèves à l’informatique. Des générations d’étudiants apprennent leurs premiers rudiments de programmation sur ces machines vertes et blanches. L’interface IEEE-488, héritée du monde de l’instrumentation scientifique, permet de connecter des appareils de mesure professionnels, étendant l’usage du P.E.T aux laboratoires et centres de recherche.

La communauté des utilisateurs s’organise spontanément. Le P.E.T User Group voit le jour en 1978 et fédère des milliers de membres à travers le monde. Publications spécialisées, échanges de programmes sur cassette, rencontres régionales : un écosystème vivant se développe autour de la machine. Cette dynamique collective compense les limitations techniques par une créativité débordante.

Des développeurs indépendants créent des applications remarquables. VisiCalc, le premier tableur grand public, trouve dans le P.E.T une plateforme de choix pour séduire les petites entreprises et les professions libérales. Des jeux sophistiqués, des logiciels de gestion, des outils éducatifs enrichissent progressivement le catalogue disponible. Cette diversité logicielle transforme le P.E.T d’ordinateur de programmation en véritable outil de productivité.

Commodore tire les leçons de cette expérience pionnière. Les succès et les échecs du P.E.T nourrissent directement la conception du VIC-20 puis du légendaire Commodore 64. L’approche tout-en-un validée, l’importance du facteur prix confirmée, la nécessité d’un écosystème logiciel étoffé comprise : autant d’enseignements qui guideront les futures créations de l’entreprise californienne.

Le P.E.T s’éteint progressivement au début des années 1980, supplanté par des machines plus puissantes et moins chères. Cette machine prouve qu’un ordinateur personnel peut séduire au-delà du cercle des initiés. Elle trace les contours d’un marché nouveau où la technique cède le pas à l’usage, où la complexité s’efface derrière la simplicité d’emploi. Le P.E.T fascine les collectionneurs et les historiens de l’informatique. Non pas pour ses performances, dépassées depuis longtemps, mais pour ce qu’il représente : un des premiers pas vers la démocratisation de l’ordinateur personnel.

Haut de page

Tandy TRS-80

En 1976, dans les bureaux de Tandy Radio Shack à Fort Worth au Texas, Don French nourrit une idée audacieuse. Cet homme, passionné d’informatique et cadre dans cette entreprise qui compte près de 3 500 magasins d’électronique aux États-Unis, veut convaincre son président Lew Kornfield de se lancer dans la vente d’ordinateurs en kit. L’idée paraît folle : vendre un produit à 199$ dans des magasins habitués à écouler des marchandises autour de 30$. Les dirigeants se montrent sceptiques. Mais les temps changent. Les ventes de CB, ces postes radio Citizen Band qui faisaient la fortune de l’enseigne, commencent à s’essouffler. L’entreprise a besoin d’un nouveau souffle, d’un produit capable de maintenir ses marges. Le projet de French obtient finalement le feu vert.

Le printemps 1976 voit French et ses collègues se rendre chez National Semiconductor. Là, ils rencontrent Steve Leininger, concepteur de puces et membre du célèbre Homebrew Computer Club. Sollicité d’abord comme simple consultant, Leininger finit par accepter un poste chez TRS. L’homme va bouleverser le projet initial. Alors que les kits dominent le marché face aux systèmes assemblés beaucoup plus chers, il pousse TRS vers la seconde option. Son pari : proposer un ordinateur entièrement monté pour 399,95$. Avec le moniteur, l’ensemble atteindrait 599,95$. Le prix se maintient suffisamment bas pour séduire les dirigeants.

La prudence est de mise chez Tandy. Don French l’a confirmé : seulement 3 500 unités sont produites initialement, soit exactement le nombre de magasins Radio Shack. La logique semble évidente : si l’aventure tourne mal, les machines serviront dans les points de vente. Le 3 août 1977, l’hôtel Warwick de New York accueille la présentation officielle du TRS-80. La conférence de presse passe presque inaperçue. Deux jours plus tard, la chance sourit à l’entreprise : la présence du TRS-80 au Personal Computer Faire de Boston décroche un article en première page de l’Associated Press.

French découvre à son retour que son bébé a pris des proportions inattendues. Les chiffres parlent d’eux-mêmes : environ 250 000 unités vendues pour ce premier modèle. Le prix attractif face à la concurrence d’Apple ou de Commodore n’explique pas tout. Radio Shack bénéficie d’un atout : sa notoriété et ses quelque 5 000 magasins et franchises en 1977. N’importe qui peut désormais voir et tester un TRS-80 dans un centre commercial ou une rue commerçante. L’ordinateur sort du cercle des passionnés pour toucher le grand public.

Les entreprises commencent à s’intéresser au TRS-80, mais la première génération montre vite ses limites. Face à des machines comme l’IBM 5110, elle manque de puissance et d’espace de stockage. Tandy riposte en juin 1979 lors de la National Computer Conference à New York avec le TRS-80 Model II. Attention, ce n’est pas un successeur du Model I, qui prend alors ce nom. La publicité de Radio Shack le martèle : il s’agit d’une machine différente, autrement plus chère avec un prix de base à 3 490$ incluant un lecteur de disque. Le processeur Z80 passe de 1,77 à 4 MHz, la mémoire grimpe de 4K extensible à 16K vers 32K extensible à 48K, les graphiques gagnent en résolution. Fini le lecteur de cassettes, place à un TRSDOS spécifique et un BASIC renforcé.

Juillet 1980 marque l’arrivée du TRS-80 Model III, véritable héritier du Model I. Les interférences électromagnétiques des premiers ordinateurs personnels poussent la FCC à durcir ses directives. Le Model I tire sa révérence en 1981. Comme son grand frère Model II, le Model III intègre tout dans un seul boîtier : moniteur, clavier, lecteur de disque. Cette conception réduit les parasites radio et séduit les établissements scolaires, moins exposés au vol qu’avec des éléments séparés. Le processeur Z80 atteint 2,0 MHz et embarque un ROM BASIC 2 plus performant. L’architecture préserve une large compatibilité avec le Model I, mais TRSDOS 1.3 est spécifique au Model III. Un modèle complet coûte 2 495$ en 1980, la version d’entrée de gamme s’affichant à 699$.

Avril 1983 voit naître le TRS-80 Model 4. Échaudés par les problèmes de compatibilité entre Model I et Model III, les développeurs misent sur une compatibilité totale avec le prédécesseur. Le monde informatique salue cette décision, mais déplore l’absence de logiciels natifs. Le Model 4 franchit un cap : horloge à 4 MHz, 64K de RAM avec possibilité d’ajouter 64K supplémentaires, écran 80x24 avec vidéo inverse, TRSDOS 6 avec Microsoft BASIC et compatibilité CP/M. La configuration de base avec lecteur de cassette 16K démarre à 999$, le modèle complet avec 64K et deux lecteurs de disquettes culmine à 1 999$. Deux versions limitées suivront, mais les configurations originales tiendront jusqu’en 1991.

Le triomphe du TRS-80 s’explique de différentes façons. D’abord, cette disponibilité immédiate dans le vaste réseau Radio Shack. Ensuite, une approche pédagogique remarquable avec le manuel du Level I BASIC, d’une clarté exemplaire. La conception modulaire séduit aussi : chacun peut faire évoluer sa machine selon ses moyens et ses besoins. Radio Shack assure le service après-vente, gage de confiance. L’entreprise développe tout un écosystème : périphériques variés, logiciels du jeu aux applications professionnelles (comptabilité, gestion des stocks). Plus de 100 000 systèmes trouvent preneur, hissant le TRS-80 parmi les premiers ordinateurs personnels largement diffusés.

L’impact sur l’informatisation des petites entreprises, des écoles et des foyers américains se révèle considérable. Le TRS-80 démocratise l’accès aux ordinateurs bien au-delà des cercles de spécialistes et de professionnels. Il incarne cette mutation du marché de la micro-informatique entre la fin des années 1970 et le début des années 1980, ce passage d’un marché de niche vers le grand public et le monde professionnel.

Haut de page

Berkeley Software Distribution

Quand Ken Thompson, Dennis Ritchie et Rudd Canaday créent UNICS à l’université Purdue en 1969, ils ignorent qu’ils viennent de lancer une lignée qui donnera naissance à l’une des familles de systèmes d’exploitation les plus influentes de l’histoire informatique. UNICS est renommé UNIX deux ans plus tard, et dès 1973-1974, le système connaît ses premières ramifications avec PWB/UNIX et MERT. Tandis que PWB/UNIX évoluera vers System III, MERT disparaît des écrans radar.

La véritable aventure BSD débute le 9 mars 1978 dans les locaux du Computer Systems Research Group de l’université de Berkeley. Cette première mouture de BSD est modeste, mais les versions 2 et 3 marquent un tournant. Les machines DEC VAX 32 bits remplacent peu à peu les vieillissantes PDP-11, et BSD s’adapte à cette transition technologique. Les développeurs intègrent le compilateur Pascal retravaillé par Thompson, l’éditeur vi qui deviendra mythique, et le shell C qui change la donne pour les administrateurs système.

L’histoire aurait pu s’arrêter là sans l’intervention providentielle de la DARPA. Bob Fabry décroche un financement de 18 mois qui transforme BSD 3 en laboratoire d’innovations. La mémoire virtuelle fait son apparition, accompagnée de la pagination à la demande et d’algorithmes sophistiqués de remplacement de pages. Ces améliorations préparent le terrain pour BSD 4, qui introduit le protocole ARPANET — ancêtre de TCP/IP — et une gestion mémoire repensée. La base de données termcap fait évoluer la gestion des terminaux, tandis que le support des périphériques gagne en robustesse.

Jim Kulp apporte sa contribution à BSD 4.1 avec le contrôle des tâches, mais c’est surtout la détection automatique du matériel qui change la vie des utilisateurs. Fini les recompilations fastidieuses du noyau à chaque changement de configuration : le système reconnaît et configure seul les périphériques au démarrage. Un noyau est désormais capable de tourner sur des machines différentes sans intervention humaine.

L’année 1983 marque l’apothéose avec BSD 4.2. Bill Joy et Kirk McKusick signent leur chef-d’œuvre avec le Berkeley Fast File System, qui surclasse largement l’UFS traditionnel en termes de performances et d’utilisation de l’espace disque. Les signaux révolutionnent la communication entre processus, l’IPC structure les échanges complexes, et TCP/IP s’impose comme la référence réseau. Ces innovations inspirent une génération de systèmes : SunOS 1.2, Ultrix-II, Mach et MIPS OS puisent directement dans cette mine d’or technologique.

BSD 4.3 sort en 1986 avec pour mission de consolider les acquis et peaufiner TCP/IP. Le système atteint une maturité technique remarquable, mais l’aspect commercial entre en scène. En 1990, BSDi lance BSD/386 en s’appuyant sur le code de BSD Net/2. Cette version commerciale se positionne comme une alternative crédible à System V d’AT&T, avec un argument de poids : un prix plus abordable. Cependant, l’épée de Damoclès de la licence AT&T pend toujours au-dessus de BSD.

Le coup de tonnerre arrive en 1992 quand AT&T traîne BSDi devant les tribunaux pour violation de marque et publicité trompeuse. Après un premier échec, AT&T revient à la charge en 1993, cette fois contre BSDi et l’université de Californie. L’accusation : distribution de code propriétaire sans autorisation. La situation se complique quand AT&T vend USL et les droits UNIX à Novell. Il faudra attendre le 4 février 1994 pour voir naître 4.4BSD Lite, épuré de tous les éléments sous licence AT&T.

Pendant ce temps, Bill Jolitz travaille dans l’ombre sur 386BSD. Son approche diffère : plutôt que de négocier avec les juristes, il développe des alternatives aux composants problématiques. Cette démarche débouche sur une version de BSD entièrement libre, débarrassée des contraintes légales qui entravaient son développement. Les distributions ralentissent temporairement, mais cette libération technique constitue une victoire stratégique pour le logiciel libre.

Les années suivantes voient éclore plusieurs branches : NetBSD naît du code BSD Net/2, FreeBSD prolonge l’héritage de 386BSD, DragonFlyBSD se sépare plus tard de FreeBSD, et Apple intègre discrètement des éléments FreeBSD dans le noyau hybride Mach/BSD de macOS X.

L’héritage technique de BSD traverse les décennies. Le système de fichiers FFS inspire encore les développeurs contemporains. La pile TCP/IP de Berkeley est une référence pour comprendre les protocoles réseau. Le contrôle des tâches et la détection automatique du matériel font maintenant partie du paysage UNIX standard. Mais au-delà de ces contributions techniques, BSD inaugure un modèle de développement inédit : la collaboration entre université et industrie, l’amélioration collective du code, le partage des innovations.

Sa licence permissive tranche avec les approches plus restrictives. Cette ouverture favorise l’adoption du code BSD dans des projets commerciaux, créant un écosystème où recherche académique et développement industriel se nourrissent mutuellement. macOS illustre parfaitement cette symbiose : un système commercial qui intègre et valorise des composants libres.

La fragmentation de BSD en multiples variantes — FreeBSD, NetBSD, OpenBSD — reflète paradoxalement sa vitalité. Chaque branche explore un territoire spécifique : NetBSD mise sur la portabilité universelle, OpenBSD privilégie la sécurité absolue, DragonFlyBSD repense les architectures multiprocesseurs. Cette diversité enrichit l’écosystème plutôt qu’elle ne l’affaiblit.

Dans la grande histoire de l’informatique, BSD incarne la transmission du savoir technique à travers les générations de développeurs. Le système voyage de l’université vers l’industrie, de la recherche vers les applications critiques, sans perdre son âme ni ses qualités intrinsèques.

Haut de page

Space Invaders

En 1978, dans les bureaux de Taito Corporation à Tokyo, Tomohiro Nishikado travaille sur un projet qui va bientôt bouleverser l’industrie naissante du jeu vidéo. L’ingénieur japonais ignore qu’il s’apprête à créer l’un des phénomènes culturels les plus durables de son temps. Son Space Invaders voit le jour dans un contexte où les constructeurs nippons tentent de rattraper leur retard sur les Américains, qui dominent le secteur depuis le succès retentissant de PONG six ans plus tôt.

Là où PONG s’appuyait sur des circuits TTL rudimentaires, Space Invaders introduit une architecture dont le microprocesseur est couplé à une mémoire vidéo bitmap. Cette combinaison autorise l’affichage simultané de dizaines d’objets graphiques animés, une performance inégalée pour l’époque. L’astuce visuelle du jeu réside dans sa projection monochrome sur un fond coloré par filtres, solution économique mais diablement efficace.

Le génie de Nishikado ne s’arrête pas aux aspects purement techniques. Il forge les codes du jeu vidéo moderne : système de score, vies multiples, montée en difficulté, boucle infinie. Le concept paraît d’une simplicité désarmante : un canon laser face à des hordes d’aliens qui descendent inexorablement. Plus le joueur excelle, plus les envahisseurs accélèrent leur descente mortelle. Cette mécanique crée une tension qui ne se relâche jamais.

L’accueil du public japonais confine au délire collectif. Les salles d’arcade se transforment en temples dédiés au nouveau phénomène. Certains établissements abandonnent tous leurs autres jeux pour installer exclusivement des bornes Space Invaders. La légende raconte qu’une pénurie de pièces de 100 yens aurait frappé l’archipel – histoire inventée mais symptomatique de l’engouement national. Les chiffres parlent d’eux-mêmes : des centaines de millions de dollars de recettes en quelques mois.

Cette réussite foudroyante redessine la géographie industrielle du secteur. Les constructeurs japonais, galvanisés par ce succès inattendu, déversent des capitaux dans la recherche et le développement. Namco, Sega et Nintendo émergent de cette effervescence créatrice qui va dominer la décennie suivante. L’industrie du jeu d’arcade trouve sa maturité économique.

Les contraintes techniques du système original – incapable de remplir plus d’un quart de l’écran en temps réel – stimulent paradoxalement l’innovation. Namco répond dès 1979 avec Galaxian et sa technologie sprite, qui gère plus finement les objets mobiles. Cette course à l’armement technologique ne cessera plus : processeurs de signal numérique pour la 3D dans les années 1990, puis processeurs graphiques spécialisés au tournant du millénaire.

Au-delà du divertissement, Space Invaders cristallise les tensions géopolitiques de son temps. L’Amérique des années 1970 voit d’un œil inquiet l’ascension économique du Japon. Les envahisseurs pixellisés font écho aux craintes d’une « invasion » des produits nippons sur le marché américain. Ironie du sort, Atari acquiert les droits du jeu pour les États-Unis, illustrant la complexité des échanges entre les deux puissances.

Cette mutation culturelle s’accompagne d’une professionnalisation du secteur. Fini le temps des bricoleurs solitaires : développer un jeu nécessite désormais une équipe structurée. Programmeurs, ingénieurs hardware, concepteurs, graphistes et producteurs forment les premiers studios dignes de ce nom. Cette organisation marque le début l’industrie tentaculaire que nous connaissons.

L’effet social du jeu surprend ses créateurs. Les spectateurs se rassemblement autour des bornes d’arcade pour admirer les performances des virtuoses. Ces attroupements spontanés portent en germe la culture du spectacle vidéoludique qui explosera avec l’e-sport contemporain. Space Invaders révèle la dimension collective d’un médium que l’on croyait solitaire.

Son influence perdure dans les créations actuelles, notamment le principe défensif de protéger son territoire contre des vagues d’assaillants. Score, progression, tension crescendo : autant d’éléments devenus indissociables de l’expérience vidéoludique. Le jeu de Nishikado démontre comment une intuition créative, soutenue par l’innovation technique, peut transformer un secteur entier.

Space Invaders, ce petit programme de quelques kilo-octets, a redéfini notre rapport au divertissement numérique. Il marque le moment où le jeu vidéo s’émancipe de ses origines artisanales pour s’imposer comme forme d’expression autonome, capable de générer ses propres codes esthétiques et sociaux.

Haut de page

TeX

Donald Knuth reçoit un jour les épreuves du second volume de The Art of Computer Programming. Nous sommes en 1977, et le résultat le déçoit au point de l’amener à tout arrêter. La composition typographique de ses formules mathématiques lui paraît si médiocre qu’il décide de créer son propre système plutôt que de continuer l’écriture de ses livres. L’industrie de l’imprimerie traverse un bouleversement technique : elle abandonne la composition au plomb, où chaque caractère était coulé dans le métal puis assemblé à la main, pour adopter la photocomposition. Cette nouvelle méthode coûte moins cher et va plus vite, certes, mais Knuth n’accepte pas la baisse de qualité qui l’accompagne.

L’informaticien de Stanford consacre son année sabbatique 1977-1978 à développer TeX. Il ne se contente pas d’écrire un simple programme de mise en page : il conçoit un système complet avec son langage de description de documents et son format de sortie DVI, indépendant de l’imprimante utilisée. Ses premiers essais ont lieu sur un ordinateur DEC PDP-10, en langage SAIL. Frank Liang et Michael Plass, ses étudiants, testent les prototypes successifs et participent activement au développement.

TeX redéfinit l’art de la composition par ses algorithmes sophistiqués. Frank Liang met au point un système de césure qui s’adapte aux différentes langues, tandis que Michael Plass aide Knuth à concevoir la justification des paragraphes. L’innovation technique réside dans le concept de « boîtes et ressorts » : TeX gère les espaces entre les éléments comme des ressorts virtuels qui se compriment ou s’étirent selon les besoins. Cette approche produit une justification d’une qualité inégalée.

Knuth accompagne TeX d’un second système : METAFONT. Plutôt que de dessiner le contour des lettres comme le feront plus tard PostScript et TrueType, METAFONT programme les caractères en simulant les mouvements d’une plume. Cette méthode paramétrique génère des familles entières de polices en modifiant quelques variables. Les polices Computer Modern, créées avec cet outil, marquent visuellement tous les documents TeX depuis quarante ans.

En 1982, la réécriture en Pascal donne naissance à TeX82. Ce changement de langage améliore la portabilité et sert de base à toutes les versions ultérieures. Knuth adopte alors une gestion des versions originale : les numéros tendent vers π pour TeX et vers e pour METAFONT. Cette approche mathématique reflète sa volonté de stabiliser définitivement le système. Il s’engage à ne corriger que les bogues graves, garantissant qu’un document produira toujours un résultat identique, même des décennies plus tard.

L’American Mathematical Society fait confiance à TeX pour ses publications. Cette adoption par une institution de référence contribue à sa diffusion dans les universités du monde entier. Leslie Lamport comprend que le système de Knuth est trop complexe pour beaucoup d’utilisateurs. En 1984, il crée LaTeX, une couche de commandes simplifiées qui cache la complexité technique derrière une interface logique. L’auteur se concentrer désormais sur la structure de son document plutôt que sur sa mise en forme, et le succès dépasse celui du TeX « plain ».

Knuth réinvente aussi la documentation logicielle. Il développe spécialement pour TeX les principes de la programmation littéraire, mêlant code et explications dans un seul document. Cette approche produit une documentation exceptionnellement complète qui aide d’autres programmeurs à comprendre et modifier le système. Une communauté d’utilisateurs naît autour de TeX. Le TeX Users Group voit le jour en 1980 et publie TUGboat, une revue technique qui accompagne l’évolution du système.

TeX reste l’outil de référence des scientifiques. Les mathématiciens, physiciens et informaticiens l’utilisent massivement pour rédiger leurs articles. Des extensions comme pdfTeX, XeTeX et LuaTeX ont ajouté de nouvelles fonctions sans altérer la qualité typographique originale. Paradoxalement, les innovations de Knuth n’ont jamais été reprises par les logiciels grand public. Microsoft Word ou LibreOffice Writer proposent une composition bien inférieure malgré la puissance des ordinateurs actuels.

L’histoire de TeX montre à quel point l’exigence de qualité d’un seul homme permet de changer une discipline entière. Elle démontre l’importance de l’ouverture du code source et d’une documentation exemplaire pour la survie d’un logiciel. Dans un monde où les technologies se succèdent à un rythme effréné, TeX traverse les décennies en gardant toute sa pertinence. Knuth avait prévu de passer quelques mois sur ce projet personnel. Près d’un demi-siècle plus tard, son œuvre continue de composer les plus beaux textes mathématiques ou littéraires de la planète.

Haut de page

WordStar

En mai 1978, Seymour Rubinstein claque la porte d’IMSAI Manufacturing Corporation. Un désaccord avec Bill Millard vient de briser sa carrière de directeur marketing. Deux semaines plus tôt, Rob Barnaby, programmeur de talent, avait déjà quitté le navire. Rubinstein le retrouve et lui lance une proposition simple : créer ensemble des logiciels pour ces micro-ordinateurs qui commencent à sortir des garages californiens.

Juin 1978 voit naître MicroPro International Corporation. Le nom traduit l’ambition de Rubinstein : développer des programmes « PROfessionnels » pour les « MICRO-ordinateurs ». Les premiers fruits arrivent dès septembre avec WordMaster et SuperSort. WordMaster reprend les idées d’un éditeur de texte que Barnaby avait développé chez IMSAI, entièrement réécrit pour tourner sur CP/M. SuperSort s’inspire des utilitaires de tri d’IBM 360. Ces deux programmes rapportent 10 700 dollars dès septembre 1978, de quoi voir l’avenir avec confiance.

Mais les revendeurs réclament autre chose : un vrai traitement de texte qui gère directement l’impression. Début 1979, Barnaby se lance dans un tour de force technique. En six mois, il écrit plus de 137 000 lignes de code assembleur. IBM aurait estimé ce travail à 42 années-homme. La première version de WordStar sort en juin 1979.

Le logiciel bouscule les habitudes. Pour la première fois, l’écran montre ce qui sortira sur papier. WordStar intègre une aide qui s’adapte aux gestes de l’utilisateur, guide ses pas sans l’encombrer. Les dactylographes retrouvent leurs marques : toutes les commandes restent accessibles au clavier, et les sauts de page s’affichent à l’écran, un luxe inouï.

Le succès dépasse toutes les espérances. MicroPro grimpe de 500 000 dollars en 1979 à 1,8 million en 1980, puis 5,2 millions en 1981. L’arrivée du capital-risqueur Fred Adler en 1981 transforme l’entreprise. Une vraie force de vente se met en place. Le chiffre d’affaires bondit à près de 25 millions de dollars, avec une perte d’un million sur l’exercice. En 1982, les revenus atteignent 45 millions.

Rubinstein voit grand et vise l’international. Il installe un siège européen à Zoug, en Suisse, histoire de profiter d’une fiscalité clémente. Des bureaux s’ouvrent en Allemagne, au Royaume-Uni, en France, au Japon. WordStar se décline en 42 langues. Le monde entier découvre ce traitement de texte futuriste.

WordStar hérite de la philosophie des éditeurs de texte plutôt que de celle des machines à écrire. Le texte est désormais un flux continu, non plus une succession de pages. Les commandes de formatage s’insèrent directement dans le document via des caractères spéciaux, méthode venue tout droit de la programmation. Cette approche séduit universitaires et écrivains qui manipulent de longs manuscrits.

En janvier 1984, Rubinstein s’effondre, victime d’une crise cardiaque, alors que l’entreprise prépare son introduction en bourse. Les avocats de la société le persuadent de signer des documents qui le dépossèdent du contrôle. H. Glen Haney prend les rênes et écarte progressivement le fondateur.

La nouvelle direction accumule les maladresses. WordStar 2000 sort en totale incompatibilité avec la version originale, semant la confusion chez les utilisateurs fidèles. La publicité pour WordStar disparaît pendant trois ans. Le réseau de 1 500 revendeurs se voit sacrifié au profit de quelques gros distributeurs. Les ventes dégringolent de 72 à 40 millions de dollars.

WordPerfect débarque en 1980 en combinant édition et formatage dans un affichage unique. Microsoft Word arrive en 1983 avec l’approche inédite que chaque caractère est une entité indépendante dotée de ses propres attributs. Cette méthode, d’abord plus lente, prendra tout son sens avec l’émergence des interfaces graphiques.

Les années 1990 sonnent le glas de WordStar. Le passage à Windows se fait mal. Le logiciel passe de main en main, racheté par des sociétés spécialisées dans la distribution de programmes à bas prix, et enfin par The Learning Company. Corel obtient une licence mais préfère WordPerfect qu’il vient d’acquérir. WordStar survit grâce à quelques groupes d’utilisateurs nostalgiques.

Pourtant, l’héritage demeure immense. WordStar a prouvé qu’un micro-ordinateur pouvait rivaliser avec les machines à écrire professionnelles. Ses innovations d’interface ont inspiré toute une génération de logiciels. Il a contribué à structurer l’industrie du logiciel en créant les contrats de licence utilisateur et en développant la distribution internationale.

Haut de page

dBASE

Au Jet Propulsion Laboratory de la NASA, dans les années 1970, Wayne Ratliff ne se doutait probablement pas qu’il allait écrire une page de l’histoire des bases de données personnelles. Son système JPLDIS, conçu pour traiter les informations du laboratoire spatial, allait devenir l’ancêtre de l’un des logiciels les plus marquants de l’informatique personnelle.

Ratliff transforme son travail initial en un produit qu’il baptise Vulcan et qu’il vend par petites annonces dans la presse spécialisée. L’aventure commerciale prend une autre dimension quand Ashton-Tate décide de distribuer le logiciel sous un nouveau nom : dBASE II. Cette dénomination, qui évite astucieusement la version I, suggère d’emblée la maturité d’un produit déjà éprouvé. Le stratagème fonctionne parfaitement. Sur les micro-ordinateurs 8 bits tournant sous CP/M, dBASE II s’impose comme la référence incontournable pour gérer les données.

Ce qui distingue dBASE des autres outils, c’est son approche globale. Là où ses concurrents proposent des fonctions isolées, dBASE offre un véritable environnement de travail intégré. Une fois lancé, l’utilisateur accède à un univers complet : création de tables, manipulation de données, recherche d’informations, exportation vers d’autres formats. Le logiciel va plus loin en proposant un langage de programmation pour automatiser les tâches répétitives ou de construire des interfaces sur mesure.

Cette intégration pousse le concept jusqu’à inclure un éditeur de texte, des outils de gestion de fichiers et la possibilité d’interagir directement avec le système d’exploitation. Tout se passe dans un seul environnement, sans avoir à jongler entre différents programmes. L’interface en ligne de commande, reconnaissable à son fameux point d’invite, est de plus en plus familière aux utilisateurs qui apprennent à dialoguer directement avec leurs données.

L’architecture technique repose sur une organisation logique des informations. Les tables de données, stockées dans des fichiers .dbf, structurent les informations en colonnes et lignes selon le modèle relationnel classique. Le système s’appuie sur différents types de fichiers : index pour accélérer les recherches, mémoire pour les calculs temporaires, formats de rapport pour la présentation, formats d’écran pour l’interaction, programmes pour l’automatisation.

dBASE III marque une rupture technique importante. La maintenance et l’évolution du code sont facilitées à la suite de l’abandon de l’assembleur au profit du langage C par Ashton-Tate. Cette version introduit la gestion des dates et augmente sensiblement les capacités de traitement. dBASE III Plus, commercialisé en 1986, franchit un nouveau palier avec des menus déroulants inspirés de Framework, des performances doublées et le support natif du multi-utilisateurs.

Les chiffres parlent d’eux-mêmes : un nombre illimité de fichiers, jusqu’à un milliard d’enregistrements par fichier, 128 champs maximum par enregistrement, 4 Ko par enregistrement. Les tests montrent que le tri s’effectue deux fois plus vite qu’avec la version précédente, tandis que l’indexation gagne un facteur dix. La compatibilité s’étend à PFS :FILE, Lotus 1-2-3, VisiCalc DIF, MultiPlan et aux fichiers ASCII standard.

L’aspect réseau prend une importance particulière. dBASE III Plus intègre directement les fonctionnalités multi-utilisateurs sans surcoût. Le verrouillage automatique des enregistrements et fichiers évite la corruption des données lors d’accès simultanés. Huit niveaux de protection par mot de passe sécurisent l’accès aux informations sensibles. Le chiffrement et déchiffrement des données s’effectuent automatiquement au niveau de chaque poste de travail.

Pourtant, vers la fin des années 1980, la machine commence à gripper. Le départ de Wayne Ratliff d’Ashton-Tate en 1988 prive l’entreprise de son créateur originel, alors que la concurrence s’intensifie avec l’arrivée de produits comme FoxBASE et Clipper, souvent plus performants et moins chers. Les problèmes judiciaires s’accumulent : Ashton-Tate perd plusieurs procès pour violation de droits d’auteur, n’ayant jamais divulgué que dBASE descendait directement de JPLDIS.

Contrairement à WordStar qui avait su rappeler ses fondateurs lors de difficultés similaires, Ashton-Tate persiste dans une stratégie qui s’avère perdante. Le marché se réorganise autour de nouveaux acteurs : Borland absorbe Ashton-Tate, Microsoft acquiert Fox (l’éditeur de FoxBASE), Computer Associates rachète Nantucket (créateur de Clipper).

Après son départ, Wayne Ratliff développe Emerald Bay, un nouveau produit qui présente des ressemblances troublantes avec Microsoft Access. Dans une interview de 2007 accordée à Visual Pro Magazine, Ratliff souligne ces similitudes sans porter d’accusations explicites, laissant planer un doute sur d’éventuels « emprunts » de concepts.

Le concept d’environnement de développement intégré de dBase, l’interaction directe avec les données via une interface utilisateur intuitive, la programmation orientée données : autant d’innovations qui marquent durablement l’industrie. Microsoft Access, entre autres, hérite directement de ces concepts pionniers.

Jerry Pournelle capture parfaitement l’ambiguïté du produit dans les colonnes du magazine BYTE en le qualifiant d’« exaspérant mais excellent ». Cette formule résume l’état d’esprit où l’industrie du logiciel personnel hésite encore entre innovation technique pure et simplicité d’usage. dBASE incarne cette tension : innovant dans ses concepts, parfois déconcertant dans son utilisation quotidienne. dBASE montre surtout comment les systèmes de gestion de bases de données sont devenus des outils indispensables, tant dans l’informatique personnelle que professionnelle.

Haut de page

Ada

Imaginez un instant le cauchemar administratif que représentaient les projets informatiques du Pentagone au milieu des années 1970. Plus de 400 langages et dialectes de programmation pullulaient dans les systèmes du département de la Défense américain, générant chaque année trois milliards de dollars de coûts de maintenance. Cette situation ubuesque trouvait souvent son origine dans l’initiative malheureuse d’un programmeur qui, persuadé d’améliorer la productivité, bricolait un langage existant pour son application particulière. Vingt années plus tard, des générations entières de développeurs devaient encore apprendre ce dialecte pour maintenir ce programme devenu legacy.

David Fisher dirigeait alors l’initiative lancée par le DoD pour sortir de cette impasse. L’idée n’était pas neuve : dans les années 1960, le département avait déjà imposé COBOL dans ses contrats de défense. Mais cette fois, l’approche serait différente. Pour la première fois dans l’histoire des langages de programmation, les exigences seraient définies par une équipe complètement distincte de celle qui concevrait le langage.

Le processus de consultation mobilisa des experts militaires, industriels et universitaires du monde entier. Entre 1975 et 1977, plusieurs documents d’exigences virent le jour avec des noms de code évocateurs : Strawman, Woodenman, Tinman et finalement Ironman. Ces spécifications plaçaient la fiabilité, la lisibilité et la maintenabilité au cœur des préoccupations, bien au-delà des objectifs classiques de portabilité et d’efficacité.

Vingt équipes répondirent à l’appel d’offres lancé en 1977. Quatre furent sélectionnées et baptisées par des couleurs : Vert, Rouge, Bleu et Jaune. Après six mois de travail acharné, seules les équipes Verte et Rouge restaient en lice. En mai 1979, la proposition de l’équipe Verte l’emportait. Son leader, Jean Ichbiah de CII Honeywell Bull, avait un atout dans sa manche : son expérience avec LIS, le « Langage d’Implémentation de Systèmes » développé depuis 1972 dans son entreprise.

LIS avait été conçu pour améliorer la fiabilité des systèmes d’exploitation et leur maintenabilité. Cette philosophie collait parfaitement aux exigences du DoD. Ichbiah et son équipe puisèrent dans cette expérience pour façonner leur proposition.

La phase suivante, baptisée « Test and Evaluation », transforma le projet en véritable laboratoire mondial. Une centaine d’équipes réparties sur tous les continents testèrent le langage en recodant des applications existantes. Leurs retours alimentèrent les raffinements successifs qui aboutirent, en 1980, à une proposition de standard.

Le processus de standardisation prit une dimension pharaonique. Plus de mille personnes à travers le monde participèrent à cette entreprise. L’équipe d’Ichbiah dut traiter environ 7 000 commentaires sur le standard proposé, s’appuyant sur une base de données informatisée pour gérer ce déluge de retours. Une prouesse technique.

En février 1983, la standardisation ANSI d’Ada était finalisée. Le langage se distinguait par des innovations remarquables. Sa structure en paquetages permettait une séparation nette entre l’interface utilisateur et l’implémentation. Le concept de lecture linéaire métamorphosait la compréhension du code : un programmeur pouvait lire un programme Ada ligne par ligne, sa compréhension à une ligne donnée ne dépendant que des lignes précédentes.

Robert Dewar développa le premier compilateur Ada à l’Université de New York, en fait un interpréteur destiné à l’enseignement. Le deuxième compilateur, créé par Rolm et Data General pour le mini-ordinateur Eclipse, fut validé en juin 1983. Western Digital proposa le troisième avec leur MicroEngine, marquant l’entrée d’Ada dans l’univers des micro-ordinateurs.

En janvier 1984, le DoD frappait un grand coup : une directive imposait l’utilisation d’Ada pour toutes les applications critiques. Cette décision intervenait après la validation du compilateur Data General, qui prouvait la viabilité pratique du langage. Mais Ada ne resta pas prisonnier des applications militaires. Le secteur civil l’adopta, notamment dans l’aviation civile, le ferroviaire et les systèmes embarqués temps réel où la fiabilité prime sur tout.

Le langage évolua au fil des décennies. Ada 95 introduisit la programmation orientée objet. Ada 2005 et Ada 2012 apportèrent des améliorations substantielles dans la programmation par contrats. Aujourd’hui, Ada équipe des applications critiques où la moindre défaillance a des conséquences potentiellement dramatiques.

La conception d’Ada a introduit des pratiques qui font désormais école : séparation rigoureuse entre spécification et implémentation, validation formelle des compilateurs, processus de standardisation méticuleux. Ces innovations ont influencé la conception d’autres langages et transformé les méthodes de développement logiciel.

Jean Ichbiah avait une vision claire : « Le développement d’un grand programme peut prendre moins de deux ans, mais sa maintenance s’étendra sur plus de vingt ans. » Cette philosophie imprègne chaque aspect du langage. Ada privilégie la clarté et la compréhension du code plutôt que la facilité d’écriture. Une approche a priori contre-intuitive mais qui s’avère payante sur le long terme.

Le nom du langage rend hommage à Augusta Ada Lovelace, considérée comme la première programmeuse de l’histoire. Ce choix n’était pas anodin : il traduisait l’ambition du projet de marquer l’histoire de l’informatique. Quarante ans plus tard, Ada est considéré comme un modèle de conception rigoureuse et méthodique. Il démontre qu’investir dans la qualité du code génère des économies substantielles sur l’ensemble du cycle de vie d’un logiciel. Une leçon que bien des projets informatiques auraient intérêt à méditer.

Haut de page

Usenet

L’automne 1979 à Duke University ressemblait à n’importe quel autre : les feuilles jaunissaient, les étudiants reprenaient leurs cours, et dans le département informatique, Tom Truscott et Jim Ellis se creusaient la tête sur un problème apparemment banal. Comment faire communiquer efficacement les différents ordinateurs du campus qui tournaient sous UNIX ? Une question technique qui allait bouleverser la manière dont les gens échangent des informations.

L’informatique vivait encore sous la domination des gros systèmes centralisés. Les PDP-11 de DEC commençaient tout juste à coloniser les départements universitaires, tandis que les micro-ordinateurs personnels relevaient de la curiosité technologique. Pour communiquer à distance, on utilisait des modems poussifs à 300 bauds qui crachotaient sur les lignes téléphoniques. ARPANET existait, certes, mais son accès restait jalousement gardé par les militaires et quelques laboratoires privilégiés.

Truscott et Ellis trouvèrent leur solution en s’associant avec Steve Bellovin, étudiant à l’université voisine de Caroline du Nord. Ce dernier développa la première version d’Usenet en seulement 150 lignes de script shell, s’appuyant sur UUCP, un protocole UNIX qui venait d’apparaître et permettait de copier des fichiers entre machines distantes. L’idée était simple : créer des forums thématiques appelés « newsgroups » où chacun pourrait poster des messages, ces derniers se propageant automatiquement d’un site à l’autre.

L’architecture choisie reflétait les contraintes de l’époque autant que l’ingéniosité de ses créateurs. Plutôt que de centraliser les données, chaque site stockait localement tous les messages et les transmettait à ses voisins. Duke servait de hub central pour limiter les frais téléphoniques, une préoccupation bien réelle quand chaque appel longue distance se comptait en dollars. Le protocole A News adoptait un format rudimentaire mais efficace : chaque message débutait par la lettre A suivie d’un identifiant unique, et les en-têtes indiquaient le chemin parcouru pour éviter que les messages tournent en rond.

En janvier 1980, lors d’une conférence Usenix à Boulder, l’équipe présenta publiquement son système. Ils le qualifièrent de « poor man’s ARPANET », une alternative économique au réseau des élites. Le code source fut distribué gratuitement sur bande magnétique, dans l’esprit de partage qui caractérisait la communauté UNIX. Cette générosité n’était pas que philosophique : sans moyens financiers, les créateurs misaient sur l’effet de réseau pour faire prospérer leur invention.

Les débuts furent pourtant modestes. En avril 1981, quinze sites seulement composaient le réseau, gravitant autour de Duke, Berkeley et San Diego. Le décollage vint de Mary Ann Horton, qui eut l’idée de créer une passerelle entre Usenet et les listes de diffusion populaires d’ARPANET. Soudain, les discussions de SF-LOVERS et autres groupes renommés devinrent accessibles aux utilisateurs d’Usenet. Horton développa aussi les outils uuencode et uudecode, qui résolvaient l’épineux problème du transfert de fichiers binaires sur un réseau conçu pour le texte.

La version B News corrigea les défauts de jeunesse du système original. Fini les messages qu’il fallait lire dans l’ordre d’arrivée : on pouvait désormais naviguer librement dans les discussions, suivre des fils de conversation, organiser sa lecture. Ces améliorations tombaient à pic car le réseau explosait littéralement. De 150 sites en 1981, Usenet bondit à 11 000 sites en 1988, brassant 1 800 articles quotidiens.

Cette croissance reflétait l’évolution plus large de l’informatique. UNIX se répandait dans les universités et les entreprises, les modems devenaient plus rapides, les lignes téléphoniques plus fiables. Surtout, Usenet répondait au besoin de l’entraide technique et du partage de connaissances. Les groupes proliféraient, couvrant tous les sujets imaginables, des plus pointus aux plus futiles.

Mais cette expansion révélait les failles d’une architecture pensée pour quelques dizaines de sites. Les nœuds centraux peinaient à relayer le flot croissant de messages. La gouvernance posait question : si la création d’un groupe officiel nécessitait un vote communautaire, la hiérarchie « alt. » laissait chacun libre de créer ses propres forums. Cette anarchie organisée favorisait l’innovation mais compliquait le contrôle des dérives.

Les années 1990 marquèrent paradoxalement l’apogée et le début du déclin d’Usenet. Le système servit de tribune à des annonces qui allaient changer le monde : Linus Torvalds y présenta Linux, Tim Berners-Lee y décrivit le World Wide Web. Ironie de l’histoire, c’est justement le Web qui allait supplanter Usenet en proposant une interface plus accessible au grand public. L’arrivée d’AOL, puis des réseaux sociaux, détourna progressivement les utilisateurs vers des solutions plus conviviales.

Usenet ne disparut pas pour autant. Le protocole NNTP remplaça UUCP pour s’adapter à Internet, et le volume de données continua de croître, principalement pour le partage de fichiers binaires. Les groupes techniques gardent leur utilité pour les développeurs qui apprécient la qualité des discussions et l’absence de publicité.

Usenet a prouvé qu’on pouvait créer des réseaux sociaux décentralisés et participatifs bien avant que ces concepts ne soient à la mode. Il a enrichi le vocabulaire d’Internet avec des mots comme « spam » ou « troll », introduit l’idée du fil de discussion, expérimenté la modération collaborative. Ses choix techniques ont durablement influencé notre façon de communiquer en ligne.

Les révolutions technologiques naissent parfois de besoins très concrets, et de solutions bricolées par quelques étudiants dans un laboratoire universitaire. Entre l’ouverture totale et le contrôle nécessaire, entre la liberté d’expression et la modération des abus, Usenet a incarné les tensions qui traversent encore nos communautés numériques.

Haut de page

VisiCalc

En 1978, Dan Bricklin suit ses cours à la Harvard Business School quand une situation banale lui donne une idée qui va transformer l’informatique personnelle. Dans le cadre d’une étude de cas sur Pepsi-Cola, il regarde son professeur remplir un tableau financier au tableau noir. À chaque modification d’une donnée, l’enseignant doit recalculer péniblement l’ensemble de ses chiffres, effacer, réécrire. Cette scène évoque à Bricklin ses propres séances de calcul avec sa calculatrice : les feuilles de papier griffonnées, les erreurs qui se glissent dans les reports, les recommencements fastidieux.

L’étudiant a derrière lui une solide expérience technique acquise chez Digital Equipment Corporation, où il travaillait sur des systèmes de typographie numérique. Il connaît les systèmes informatiques qui cherchent à réduire le nombre de manipulations des opérateurs. Cette expérience le pousse à imaginer ce qu’il appellera plus tard un « tableau noir et une craie électroniques ». Un système où les calculs s’affichent, se modifient, se propagent automatiquement d’une cellule à l’autre.

De retour dans sa chambre d’étudiant, Bricklin bricolé un premier prototype en BASIC sur un Apple II emprunté. Son programme gère un petit tableau de vingt lignes sur cinq colonnes, mais le principe fonctionne. Il retrouve Bob Frankston, un ami du MIT avec qui il a travaillé sur Multics, le système d’exploitation expérimental qui les a familiarisés avec les interfaces utilisateur sophistiquées. Frankston possède les compétences techniques nécessaires pour transformer l’idée en produit commercial.

Leur rencontre avec Dan Fylstra change la donne. Ce dernier dirige Personal Software et rédige dans Byte Magazine. Il saisit immédiatement l’intérêt du projet et oriente les deux hommes vers l’Apple II, machine qui dispose alors de l’avantage décisif du lecteur de disquettes. Sans support de stockage externe, un tableur reste inutilisable. Fylstra suggère aussi d’adapter le logiciel aux calculatrices programmables HP85 et HP87, mais cette piste ne débouchera sur rien.

En janvier 1979, Bricklin et Frankston fondent Software Arts Corporation. Pour développer leur tableur, ils acquièrent un mini-ordinateur Prime 350, choisi pour sa parenté avec Multics et son support du langage PL/I. Cette approche de développement croisé, inhabituelle pour l’époque, leur donne accès à des outils bien plus puissants que ceux disponibles sur micro-ordinateur. Ils écrivent et compilent le code sur le Prime, et le transfèrent vers l’Apple II pour les tests.

Les contraintes matérielles dictent leurs choix techniques. L’Apple II met à leur disposition 48 Ko de mémoire vive, dont une partie sert au système d’exploitation. Chaque octet compte. Plutôt que d’utiliser l’arithmétique binaire, plus rapide, ils optent pour le calcul décimal. Cette décision sacrifie les performances mais évite les erreurs d’arrondi qui déstabiliseraient des utilisateurs habitués à leurs calculatrices de bureau.

L’interface qu’ils conçoivent surprend par sa simplicité apparente. Une grille de cellules identifiées par des coordonnées : A1, B2, C3. Chaque case peut contenir un nombre, du texte ou une formule. L’utilisateur pointe vers d’autres cellules plutôt que de saisir manuellement leurs valeurs. Quand une donnée change, tous les calculs se mettent à jour instantanément. Cette fonctionnalité de simulation – le fameux « what if » – simplifie l’exploration de différents scénarios d’un geste.

Cette conception découle de leur expérience des gros systèmes informatiques et de leur volonté de créer un outil accessible au grand public. La notation par coordonnées résulte en réalité d’une réflexion approfondie sur l’ergonomie. Comment référencer une cellule de manière intuitive ? Comment rendre visible la logique des calculs ?

Personal Software commercialise VisiCalc en mai 1979 au prix de 100 dollars. Le succès ne vient pas immédiatement, mais il arrive vite. En juillet, Ben Rosen publie dans le Morgan Stanley Electronics Letter une analyse qui se révélera prophétique. VisiCalc est la première « killer app » de l’informatique personnelle, le premier logiciel avec lequel on peut utiliser un ordinateur sans savoir programmer. Des acheteurs acquièrent un Apple II uniquement pour faire tourner VisiCalc.

Le programme trouve sa place sur d’autres machines. La version IBM PC de 1981 reprend les mêmes techniques d’optimisation que l’original, démontrant la justesse des choix initiaux. Mais le succès attire la concurrence. Microsoft lance Multiplan en 1982. Le logiciel peine aux États-Unis mais rencontre du succès ailleurs dans le monde.

L’arrivée de Lotus 1-2-3 en 1983 redistribue les cartes. Mitch Kapor, ancien employé de Personal Software, a développé un tableur spécialement optimisé pour l’IBM PC. Son programme intègre des graphiques, gère des bases de données, nomme les cellules et automatise les tâches avec des macros. Lotus 1-2-3 s’impose dans le monde professionnel.

VisiCalc ne résiste pas à cette concurrence renouvelée. Les relations entre Software Arts et Personal Software se dégradent. Chaque société développe ses propres projets : VisiOn pour Personal Software, TK!Solver pour Software Arts. Les conflits dégénèrent en procès croisés en 1984, paralysant l’évolution du produit. La version avancée de VisiCalc arrive trop tard sur un marché déjà conquis.

L’héritage du premier tableur électronique dépasse son succès commercial. VisiCalc prouve qu’un micro-ordinateur est apte à servir d’outil professionnel sérieux. Il accélère l’informatisation des entreprises et influence durablement la conception des interfaces utilisateur. Microsoft Excel, lancé en 1985 sur Macintosh et en 1987 sur Windows, reprend ses principes fondamentaux tout en ajoutant la programmation par macro-instructions.

Sur le plan technique, VisiCalc établit des pratiques qui deviennent courantes : le développement croisé entre machine de développement et plateforme cible, l’optimisation du code pour des ressources limitées, l’importance d’une interface intuitive. Mais cette facilité d’usage cache parfois la complexité sous-jacente. Les études révèlent que la majorité des tableurs contiennent des erreurs, avec environ 3 % de cellules erronées en moyenne. Ces fautes peuvent coûter cher en termes financiers ou de décisions stratégiques.

L’aventure VisiCalc illustre aussi l’évolution de l’industrie logicielle. Le modèle de collaboration entre développeur technique et éditeur commercial, d’abord perçu comme un atout, tend les relations quand le marché évolue. La séparation entre création et commercialisation, qui semblait naturelle, révèle ses limites face aux mutations technologiques.

Quarante ans après sa création, VisiCalc continue d’inspirer. Ses principes – interface utilisateur soignée, optimisation des ressources, équilibre entre innovation et besoins concrets – restent d’actualité. Son histoire rappelle qu’un logiciel réussit autant par sa conception technique que par sa capacité à résoudre un problème réel.

Si ce contenu vous a plu, vous pouvez soutenir ce projet en faisant un don ou en commandant l'édition papier sur Lulu ou Amazon. Tout le contenu reste librement accessible sous licence CC BY-SA 4.0.