EPOCH
EPOCH © 2025 par Stéphane Fosse - Ce livre est publié selon les termes de la licence CC BY-SA 4.0
Chapitre 7
1980
L’informatique entre dans les foyers
La décennie 1980 s’ouvre dans un monde fracturé. La guerre froide n’a rien perdu de sa vigueur et l’opposition Est-Ouest continue de structurer les relations internationales. Pourtant, un autre terrain d’affrontement se dessine : la maîtrise de l’information. Les États-Unis et l’URSS poursuivent leur duel spatial et militaire tandis que le Japon, nouvelle puissance économique, conquiert marchés après marchés grâce à son industrie électronique.
L’information est un enjeu stratégique. Le démantèlement d’AT&T aux États-Unis en janvier 1984 bouleverse le secteur des télécommunications. Cette rupture avec le modèle monopolistique stimule l’innovation. Du côté européen, on commence à questionner la mainmise des PTT sur les communications. Un vent de changement souffle sur le paysage économique.
Le secteur tertiaire, en pleine expansion dans les économies occidentales, réclame des outils adaptés dans les bureaux. Les dactylos rangent leurs machines à écrire, remplacées par des systèmes de traitement de texte. Les comptables délaissent leurs calculatrices pour des tableurs électroniques. La productivité est le maître-mot face à une concurrence internationale toujours plus vive.
Le pouvoir d’achat des ménages occidentaux atteint un niveau sans précédent. Les téléviseurs couleur trônent désormais dans la plupart des salons. Cette familiarité avec l’électronique grand public prépare le terrain pour l’arrivée d’autres appareils dont les consoles de jeux, les magnétoscopes et, surtout, les micro-ordinateurs. L’informatique, jusque-là cantonnée aux entreprises, s’invite chez les particuliers.
L’école n’échappe pas à cette déferlante technologique. Les responsables politiques saisissent l’importance de former la jeunesse à ces nouveaux outils. Le plan français « Informatique pour tous » lancé en 1985 illustre cette prise de conscience. Des milliers d’ordinateurs Thomson TO7 et MO5 envahissent les établissements scolaires. D’autres pays suivent des voies similaires, créant un marché éducatif substantiel.
Dans les entreprises, deux mondes cohabitent. Les grands systèmes centralisés restent présents, mais voient leur hégémonie contestée par les micro-ordinateurs. Les utilisateurs gagnent en indépendance, au grand dam des services informatiques traditionnels. Cette décentralisation soulève des questions inédites sur la compatibilité entre tous ces systèmes et le partage des données. La standardisation est la solution.
Le monde de la finance bascule dans l’ère électronique. Les bourses abandonnent la cotation manuelle pour des systèmes informatisés. Les transactions s’accélèrent, leur volume explose. Cette automatisation montre pourtant ses limites lors du « lundi noir » du 19 octobre 1987. Les programmes de vente automatique s’emballent, amplifiant le krach en cours. L’incident révèle la fragilité de systèmes trop autonomes.
Les réseaux de communication se modernisent à grande vitesse. La fibre optique remplace progressivement le cuivre. Les satellites de télécommunication se multiplient en orbite. Dans les entreprises, on ne se contente plus d’avoir des ordinateurs isolés, on les connecte. Les premières messageries électroniques commerciales apparaissent, prémices d’un monde interconnecté.
La culture populaire s’empare du phénomène informatique. Hollywood met en scène hackers et intelligences artificielles. Tron (1982) plonge ses spectateurs à l’intérieur d’un ordinateur. WarGames (1983) évoque le risque d’une guerre nucléaire déclenchée par une erreur informatique. La littérature n’est pas en reste avec l’émergence du cyberpunk, dont William Gibson et son Neuromancien (1984) constituent la figure de proue.
L’édition de logiciels s’affirme comme un secteur économique majeur. La multiplication des plateformes crée un marché fragmenté où chaque machine possède son écosystème propre. Les éditeurs rivalisent d’ingéniosité pour séduire le grand public. L’ergonomie est un argument de vente décisif. Dans l’ombre de cette effervescence commerciale, les premiers virus informatiques font leur apparition, annonciateurs de futures batailles numériques.
Un nouveau rapport à la technique se développe. L’informatique n’est plus l’apanage des spécialistes en blouse blanche. Des clubs d’amateurs fleurissent, des revues comme Hebdogiciel ou Byte diffusent savoir-faire et programmes à taper soi-même. Cette démocratisation s’accompagne d’une philosophie particulière quand Richard Stallman lance en 1983 le projet GNU, première pierre d’un mouvement du logiciel libre qui conteste la mainmise des éditeurs commerciaux.
La Silicon Valley devient le symbole d’une nouvelle génération d’entrepreneurs. Des jeunes gens comme Steve Jobs, Bill Gates ou Michael Dell bousculent les géants établis. L’image du génie informatique travaillant dans un garage avant de conquérir le monde s’inscrit dans l’imaginaire collectif. Les investisseurs affluent, flairant le potentiel de croissance du secteur.
Les États prennent peu à peu conscience des enjeux de souveraineté liés à l’informatique. Contrôler les technologies numériques, c’est assurer son indépendance. La maîtrise des composants électroniques, des systèmes d’exploitation, des réseaux est un objectif stratégique. Les restrictions à l’exportation de matériel sensible vers le bloc soviétique témoignent de cette dimension géopolitique.
Cette décennie entame une transformation de la société. L’ordinateur est un outil de calcul scientifique ou de gestion, et un moyen de création, de communication et de divertissement. Son emprise s’étend à tous les domaines de l’activité humaine.
La fin des années 1980 laisse entrevoir un monde où l’information circule sans entraves. Les innovations techniques répondent aux aspirations sociales de l’époque, entre désir d’autonomie individuelle, besoin d’échanges accrus et soif de modernité. L’informatique personnelle s’inscrit dans cette dynamique, traduisant en silicium les rêves d’une génération.
Apple III
En mai 1980, lors de la National Computer Conference d’Anaheim, Apple dévoile sa nouvelle machine avec un faste inhabituel. L’entreprise privatise Disneyland cinq heures durant, débourse 42 000 dollars et affrète des bus à impériale britanniques pour transporter 7 000 participants de la conférence. Cette mise en scène grandiose annonce l’Apple III, premier ordinateur d’Apple destiné aux professionnels.
L’époque semble pourtant au beau fixe. Fin 1978, l’Apple II cartonne au-delà de toute espérance. Les ingénieurs de la Silicon Valley se disputent les postes chez Apple, certains acceptant des baisses de salaire contre des stock-options. Richard Jordan, transfuge d’Hewlett-Packard durant l’été 1978, raconte cette période d’euphorie collective. À chaque division par deux du cours de l’action, les équipes se sentent invincibles. L’échec leur semble impossible.
Le projet débute dans ce contexte grisant. L’Apple III embarque un microprocesseur Synertek 6502A de 8 bits à 2 MHz, soit deux fois la vitesse de l’Apple II. Accueillant jusqu’à 128 Ko de mémoire vive, il dispose d’un clavier avec pavé numérique intégré et d’un lecteur de disquette 5,25 pouces de 143 Ko signé Shugart. Quatre slots d’extension internes restent compatibles avec les cartes Apple II, auxquels s’ajoutent deux ports série. La machine fonctionne certes en émulation Apple II, mais révèle sa vraie nature avec son système d’exploitation propriétaire SOS (Sophisticated Operating System), que les initiés surnomment « applesauce ». Une horloge temps réel intégrée complète l’équipement, tandis que l’affichage gère 24 lignes de 80 colonnes en texte et 560 par 192 pixels en graphique monochrome.
Steve Jobs dirige le projet et impose ses vues. Pas de ventilateur : le châssis en aluminium suffira à évacuer la chaleur. La taille et la forme du boîtier se décident sans consulter les ingénieurs, qui doivent ensuite entasser les composants dans un espace trop étroit avec une aération défaillante. Le « feature creep » aggrave la situation : marketing, ingénierie, design industriel, fabrication, chaque service ajoute ses exigences. Le produit enfle au-delà de sa conception initiale.
Jerry Manock et Dean Hovey, les designers industriels, conçoivent le châssis avant que la carte mère soit terminée. Manock anticipe des normes FCC strictes sur les interférences électromagnétiques et choisit un châssis en aluminium plutôt massif. Il passe contrat avec Doher-Jarvis, fabricant de pièces automobiles de Toledo. L’esthétique extérieure – chanfreins à 45 degrés, clavier incliné, couleur brune – doit créer une « identité maison » pour les futurs produits Apple.
Les retards menacent l’introduction en bourse prévue en décembre 1980. Les managers ignorent les alertes des ingénieurs et lancent la production. Dès novembre, lors des premières livraisons, le cauchemar commence. En février 1981, Apple abandonne l’horloge temps réel : la puce National Semiconductor ne tient pas ses promesses. Le prix chute à 4 190 dollars, avec un remboursement de 50 dollars pour les premiers clients.
Mars 1981 marque le début des livraisons en volume et l’ampleur du désastre. Vingt pour cent des machines arrivent mortes chez les clients, les puces s’étant délogées pendant le transport. Celles qui fonctionnent d’abord tombent vite en panne : la chaleur dilate les composants qui sortent de leurs supports. Apple préconise alors une solution qui restera dans les annales : soulever l’avant de l’ordinateur de quinze centimètres et le laisser retomber pour réinsérer les puces.
D’autres défauts s’accumulent. Connecteurs défaillants, vis du boîtier qui percent les câbles internes, carte mère si dense qu’elle provoque des courts-circuits. La précipitation frappe aussi les logiciels : les programmeurs découvrent la machine neuf semaines seulement avant l’expédition. Les manuels sont relus le jour de leur envoi à l’impression, laissant passer tant d’erreurs qu’un addendum s’impose.
Apple tente un sauvetage en novembre 1981 avec une version révisée à 3 495 dollars. L’entreprise maintient que les problèmes venaient de la fabrication et du contrôle qualité, non de la conception. Pourtant, la nouvelle mouture intègre des supports de puces différents, un logiciel mis à jour, une mémoire extensible à 256 Ko et propose un disque dur de 5 Mo en option. Sur les 7 200 Apple III d’origine, 2 000 sont remplacés gratuitement.
Les ventes restent décevantes. Les analystes estiment qu’Apple écoule 3 000 à 3 500 unités mensuelles, soit un dixième des ventes Apple II. En décembre 1983, InfoCorp recense 75 000 unités installées contre 1,3 million d’Apple II. La mauvaise réputation et le manque de logiciels exploitant SOS rebutent les acheteurs.
Un dernier baroud d’honneur survient en décembre 1983 avec l’Apple III Plus à 2 995 dollars. Cette version inclut 256 Ko de RAM standard, une horloge fonctionnelle, une nouvelle carte mère, SOS version 1.3, des ports améliorés avec connecteurs DB-25 et un boîtier facilitant l’installation des cartes. Trop tard : le 24 avril 1984, Apple arrête le développement. Après 60 millions de dollars de pertes, la gamme disparaît définitivement du catalogue en septembre 1985.
L’ironie veut que cet échec n’entame pas la réussite d’Apple. Le 12 décembre 1980, l’introduction en bourse bat tous les records. Les actions émises à 22 dollars grimpent à 29 dollars et se vendent en minutes. À la clôture du premier jour, Apple vaut 1,2 milliard de dollars, réalisant la plus grosse introduction depuis Ford en 1956. Les 15% détenus par Jobs dépasseront bientôt 250 millions de dollars.
L’expérience Apple III brise le mythe d’invincibilité né du succès Apple II. Ce revers force une restructuration. En janvier 1981, le président Mike Scott divise le développement en trois groupes : systèmes de bureau personnels (Apple II/III), périphériques (lecteurs, imprimantes, modems) et systèmes professionnels (division Lisa). Le budget R&D triple à 21 millions de dollars. Ces tensions coûtent son poste à Scott, remplacé par Mike Markkula, tandis que Jobs prends la place de président du conseil.
L’arrivée d’IBM en 1981 sur le marché des ordinateurs personnels servira paradoxalement Apple. Le géant légitime ce secteur émergent. Apple le reconnaît avec humour dans une publicité pleine page du Wall Street Journal : « Bienvenue IBM, vraiment. »
Intel 8086/8088
Lorsque Intel décide de franchir le cap des processeurs 16 bits à la fin des années 1970, l’entreprise ne sait pas encore qu’elle va devenir un empire technologique. Le 8086, lancé en 1978, arrive dans un marché dominé par les puces 8 bits d’Intel, les 8080 et 8085. Cette transition vers les 16 bits représente un défi technique considérable, mais Intel mise sur une stratégie audacieuse : conserver la compatibilité avec l’existant tout en multipliant les performances.
Le nouveau processeur repousse les limites de l’époque. Là où ses prédécesseurs plafonnaient à 64 kilo-octets de mémoire, le 8086 adresse jusqu’à 1 mégaoctet grâce à son bus d’adresses de 20 bits. Ses 16 bits de bus de données traitent des mots doubles en un seul cycle. Intel a conçu une architecture à deux têtes : l’unité d’interface bus gère les échanges avec l’extérieur pendant que l’unité d’exécution se concentre sur les calculs. Cette division du travail autorise un fonctionnement en pipeline, où le processeur mâche l’instruction suivante avant d’avoir fini la précédente.
Gravé en technologie HMOS avec ses 29 000 transistors, le 8086 tourne à 5 MHz dans sa version de base. Intel pousse ensuite la cadence à 8 puis 10 MHz. Ses quatorze registres 16 bits se répartissent astucieusement entre données, pointeurs, drapeaux et segments. Ces derniers constituent l’innovation la plus marquante : ils découpent la mémoire en zones distinctes et facilitent l’organisation des programmes.
Mais voilà le hic. Migrer du 8 bits vers le 16 bits coûte cher aux constructeurs. Il faut redessiner les cartes mères, adapter tous les composants périphériques, revoir l’architecture des machines. Face à ces réticences du marché, Intel sort en 1979 une version tronquée : le 8088. Cette puce garde l’architecture interne 16 bits du 8086 mais rabote son bus de données externe à 8 bits.
Le compromis paraît bancal au premier regard. Les transferts 16 bits du 8088 nécessitent deux cycles au lieu d’un, bridant les performances. Pourtant, cette limitation technique se transforme un atout commercial car les fabricants peuvent réutiliser leurs composants 8 bits existants : contrôleurs, mémoires, circuits de support. Le coût de développement chute drastiquement.
IBM saisit l’occasion en 1981. Pour son premier ordinateur personnel, la firme cherche une solution rapide et économique. Le 8088 s’impose naturellement. Il se marie parfaitement avec le contrôleur de bus 8288, le gestionnaire d’interruptions 8259A et toute la panoplie de circuits déjà éprouvés. Sa mémoire cache de 6 octets compense partiellement le goulot d’étranglement du bus réduit.
En étalon du marché, l’IBM PC cartonne en quelques années. Microsoft développe MS-DOS sur mesure pour cette architecture, créant un écosystème logiciel qui verrouille la concurrence. Les clones IBM pullulent, tous équipés du 8088. La puce d’Intel est le processeur le plus vendu, détrônant largement son grand frère 8086 pourtant plus performant.
Cette réussite commerciale masque le changement technique. L’architecture du 8088/8086 invente des concepts qui traverseront les décennies. La segmentation mémoire survivra dans toutes les générations x86 suivantes. Le jeu d’instructions étendu, avec ses opérations sur chaînes et sa multiplication matérielle, servira de socle aux extensions futures. Le mode protégé du 80286 s’appuiera sur ces fondations.
Véritable marque de fabrique de la famille x86, Intel prévoit dès l’origine la cohabitation des deux modèles. Même jeu d’instructions, même programmation, seul le bus externe diffère. Chaque nouveau processeur exécutera les logiciels de ses prédécesseurs tout en ajoutant ses propres innovations.
Pour les calculs sophistiqués, Intel propose le coprocesseur mathématique 8087. Ce circuit optionnel se branche directement sur le processeur principal et prend en charge la virgule flottante. Son jeu d’instructions spécialisé sera plus tard intégré nativement dans les puces à partir du 80486.
L’architecture modulaire du 8086/8088 autorise aussi le multiprocesseur. En mode maximum, plusieurs puces se partagent le bus système via le contrôleur 8288. Cette possibilité, ignorée dans les PC grand public, trouve sa place dans l’industrie et les serveurs.
La production s’étale sur plus de dix ans. Supplantés par des processeurs plus musclés, les 8086 et 8088 équipent encore longtemps les systèmes embarqués et les automates industriels. Leur simplicité et leur frugalité énergétique conviennent parfaitement à ces usages discrets.
Quarante ans après, leur influence perdure. En imposant x86 comme standard de facto des ordinateurs personnels, ils ont tracé une route technologique qui se prolonge. La nécessité de préserver la compatibilité avec leur jeu d’instructions pèse toujours sur les processeurs contemporains.
Cette compatibilité ascendante, d’abord perçue comme un boulet, s’est muée en arme absolue. Elle garantit aux développeurs et utilisateurs que leurs programmes survivront aux évolutions matérielles. Cette stabilité a dopé l’expansion du marché des PC compatibles IBM.
Le triomphe du 8088 dans l’IBM PC illustre une vérité éternelle de l’industrie technologique : la solution optimale sur le papier ne l’emporte pas toujours. Le pragmatisme économique et les contraintes pratiques dictent souvent les choix. Intel l’a compris et a bâti sa stratégie sur cette leçon.
Smalltalk-80
À la fin des années 1970, le Xerox PARC abritait déjà plusieurs versions de Smalltalk, mais ces créations demeuraient prisonnières des murs du laboratoire. Elles ne fonctionnaient que sur le matériel spécialisé de Xerox : l’Alto et le Dorado, machines coûteuses et inaccessibles au commun des informaticiens. Cette situation frustrante pousse Adele Goldberg à prendre les rênes d’un projet ambitieux : faire sortir Smalltalk de sa bulle dorée pour qu’il puisse s’épanouir sur d’autres architectures.
L’entreprise s’annonce délicate. Il faut d’abord formaliser avec une précision chirurgicale le fonctionnement d’une « machine virtuelle » Smalltalk qui servirait de socle universel, tout comme celle de Java bien des années plus tard. Cette abstraction technique cache un nouveau concept : tout est objet dans ce nouvel univers. Les nombres, les caractères et les classes se comportent comme des entités autonomes capables de recevoir et d’envoyer des messages. Cette uniformité radicale bouscule les habitudes des programmeurs habitués à séparer soigneusement données et procédures.
Dans ce monde unifié, l’héritage tisse des liens invisibles entre les classes. Une hiérarchie se dessine naturellement, où chaque descendant enrichit ou spécialise les comportements de ses ancêtres. Les méthodes de classe orchestrent les comportements partagés tandis que les méthodes d’instance donnent à chaque objet sa personnalité propre. Cette architecture favorise une forme de réutilisation du code inconnue jusqu’alors.
L’environnement de développement rompt avec le cycle traditionnel qui imposait d’éditer, compiler puis exécuter. Smalltalk-80 propose une expérience continue où le programmeur modifie son code pendant que le programme s’exécute. Cette fluidité transforme l’acte de programmer en une conversation directe avec la machine. Le navigateur de classes et le débogueur, eux-mêmes écrits en Smalltalk, sont des outils vivants que l’utilisateur façonne selon ses besoins.
L’interface graphique introduit des concepts innovants pour l’époque : les fenêtres se superposent, les menus apparaissent au clic droit, les objets se manipulent directement à l’écran. Ces innovations établissent un langage visuel qui influence encore nos interactions quotidiennes avec les ordinateurs. Steve Jobs ne s’y trompe pas lorsqu’il visite le PARC en 1979 ; il comprend immédiatement le potentiel de ces idées pour le grand public.
Sous le capot, la gestion de la mémoire automatique libère enfin les programmeurs d’une corvée technique fastidieuse. Le ramasse-miettes traque les objets abandonnés pour recycler leur mémoire. Peter Deutsch et Allan Schiffman peaufinent ces mécanismes jusqu’à obtenir des performances acceptables sur du matériel standard, prouvant que l’élégance conceptuelle peut cohabiter avec l’efficacité pratique.
L’implémentation sur différentes plateformes exige des prouesses d’ingénierie. L’équipe du PARC dessine une machine virtuelle avec son propre jeu d’instructions, laissant aux intégrateurs le soin de traduire ces commandes abstraites en code natif. Cette stratégie garantit la portabilité tout en préservant la possibilité d’optimisations spécifiques. Les caches de méthodes accélèrent la recherche dans la hiérarchie des classes : quand un objet reçoit un message, le système mémorise l’association entre le sélecteur et la méthode correspondante pour les appels ultérieurs.
La gestion des contextes d’exécution révèle une autre facette de l’approche objet. Ces contextes, objets manipulables par le programme, permettront à des mécanismes sophistiqués comme la gestion d’exceptions et la réflexion de voir le jour. Cette uniformité conceptuelle pousse la logique objet jusque dans les rouages les plus intimes du système.
Avec la publication de Smalltalk-80 dans un numéro spécial du magazine Byte en 1980, les livres d’Adele Goldberg et David Robson diffusent ces idées bien au-delà des cercles académiques. Objective-C, Ruby, Python et tant d’autres puisent directement dans cette source. L’influence dépasse le domaine des langages : les environnements de développement modernes gardent la trace de cette vision où tout est accessible et modifiable en temps réel.
L’interface de Smalltalk-80 essaime dans le monde commercial grâce à la perspicacité de Jobs. Le Lisa et le Macintosh popularisent ces concepts auprès du grand public, créant un standard de facto qui perdure. Les techniques d’optimisation mises au point pour Smalltalk-80 sont désormais des pratiques courantes dans l’intégration des langages orientés objet.
La documentation exhaustive du système, incluant les spécifications de la machine virtuelle et les détails d’implémentation, constitue un cadeau inestimable à la communauté informatique. D’autres équipes vont ainsi réinventer le système selon leurs besoins, accélérant la propagation de ces idées pionnières.
UDP
En 1980, David P. Reed travaillait sur un problème simple en apparence : comment transmettre des données entre ordinateurs sans toute la complexité que TCP imposait déjà ? L’architecture d’Internet prenait forme autour de la suite TCP/IP, mais certaines applications réclamaient quelque chose de plus direct, de plus rapide. Reed imagina alors UDP, le User Datagram Protocol, qui allait devenir l’un des protocoles les plus durables d’Internet.
Là où TCP construisait des connexions solides, vérifiait chaque paquet, garantissait l’ordre d’arrivée des données, UDP choisissait délibérément l’inverse. Pas de connexion persistante, aucune garantie de livraison, aucun contrôle de l’ordre des paquets. Cette approche minimaliste se reflète d’ailleurs dans le RFC 768 qui définit le protocole : trois petites pages suffisent là où d’autres spécifications s’étendent sur des centaines de pages.
Cette brièveté n’était pas de la négligence. Reed et ses collègues avaient compris qu’Internet aurait besoin de deux types d’outils : des protocoles sophistiqués comme TCP pour les données critiques, et des mécanismes légers comme UDP pour d’autres usages. Le premier service à vraiment exploiter cette philosophie fut l’Internet Name Service, l’ancêtre du DNS. Quand un ordinateur demande l’adresse IP d’un site web, il n’a pas besoin d’établir une connexion complexe ; il envoie sa question et attend la réponse. Si celle-ci se perd, il redemande. Simple, basique.
Le DNS utilise encore cette approche, et pour cause, un serveur traite des milliers de requêtes par seconde sans maintenir d’état pour chaque client. Cette économie de ressources s’avère précieuse quand on sait qu’un serveur DNS racine peut recevoir des millions de requêtes par heure.
L’histoire d’UDP prit une tournure inattendue avec l’émergence des communications multimédias. Quand la voix sur IP fit ses premiers pas dans les années 1990, les développeurs découvrirent qu’UDP correspondait parfaitement à leurs besoins. Dans une conversation téléphonique, mieux vaut perdre quelques millisecondes d’audio que d’attendre qu’un paquet manquant soit retransmis. L’expérience utilisateur prime sur la perfection technique. Cette logique s’étendit naturellement à la vidéoconférence, puis aux jeux en ligne. Dans un jeu de tir en ligne, si l’information indiquant qu’un joueur a tiré arrive en retard, elle est inutile. Les développeurs gèrent eux-mêmes ces problématiques temporelles avec UDP, selon les spécificités de leur application.
L’élégance d’UDP réside dans cette flexibilité. Le protocole ne dicte pas comment gérer les erreurs ou l’ordre des paquets ; il laisse cette responsabilité aux applications. Certains jeux retransmettent les informations critiques plusieurs fois pour s’assurer de leur réception. D’autres ignorent simplement les paquets perdus et se concentrent sur les données les plus récentes.
Cette approche a inspiré de nouvelles innovations. DCCP ajoute le contrôle de congestion à UDP pour éviter de surcharger le réseau, et DTLS apporte la sécurité cryptographique. Ces protocoles montrent qu’UDP sert de fondation stable pour construire des solutions spécialisées.
Les mesures de performance confirment les intuitions initiales de Reed. Une étude menée entre 2004 et 2014 sur un lien transpacifique entre le Japon et les États-Unis révéla des variations dans la taille moyenne des paquets IP. UDP, générant moins de trafic de contrôle que TCP, contribue à une utilisation plus efficace de la bande passante.
L’émergence des réseaux de capteurs a donné une nouvelle jeunesse à UDP. Ces dispositifs, souvent alimentés par batterie, transmettent périodiquement des mesures de température, d’humidité ou de position. Ils n’ont pas besoin de la robustesse de TCP ; ils préfèrent économiser leur énergie en transmettant simplement leurs données sans établir de connexion complexe.
Le cloud computing et les microservices ont redécouvert les vertus de UDP. Quand une application décomposée en dizaines de services doit communiquer rapidement, UDP offre une latence minimale. Netflix utilise ainsi UDP pour certaines communications internes, Spotify pour synchroniser les playlists entre appareils.
L’évolution vers le variant UDP-Lite témoigne de cette adaptabilité, tolèrant certaines erreurs dans les en-têtes de paquets, utile dans les communications sans fil où quelques bits corrompus ne justifient pas de rejeter l’ensemble d’un paquet.
Quarante-trois ans après sa création, UDP continue de prospérer sur Internet. Sa longévité tient à un principe simple : plutôt que d’essayer de résoudre tous les problèmes, il en résout quelques-uns parfaitement bien. Cette spécialisation lui a permis de traverser les époques, des premiers réseaux universitaires aux centres de données modernes. Cette constance en fait l’un des piliers discrets mais indispensables d’Internet.
Commodore VIC-20
En 1980 près de Londres, Jack Tramiel convoque ses équipes pour une réunion qui changera la donne. Le patron de Commodore exprime une préoccupation qui le hante : « Les Japonais arrivent, alors nous allons devenir les Japonais ». Cette phrase lapidaire résume toute la philosophie qui va présider à la naissance du VIC-20.
Tramiel voit loin. Son empire Commodore règne certes en Europe, mais aux États-Unis, Apple et Radio Shack gardent une longueur d’avance. Plus inquiétant, Texas Instruments grignote ses positions sur le marché des calculatrices. Le dirigeant redoute par-dessus tout que les constructeurs japonais débarquent avec des machines subventionnées qui lamineraient la concurrence. Sa réponse ? Créer un ordinateur personnel couleur accessible au grand public, une machine qui viendrait compléter la gamme des PET déjà établie.
Cette vision audacieuse s’appuie sur un élément technique oublié depuis deux ans dans les tiroirs de MOS Technology. En 1978, Alan Charpentier avait conçu le VIC (Video Interface Chip) pour séduire les fabricants de bornes d’arcade. L’accueil avait été froid, et la puce dormait depuis. Mais voilà qu’elle trouve enfin sa vocation dans ce projet d’ordinateur grand public.
Mike Tomczyk débarque en avril 1980 comme assistant de Tramiel. En quelques semaines, cet homme énergique incarne l’âme du projet VIC-20, au point de mériter le surnom de « VIC Czar ». En visitant l’Allemagne et le Japon en un mois, il fonde son programme pour restructurer le marketing.
Pendant ce temps, deux équipes rivalisent d’ingéniosité. Robert Yannes, qui créera plus tard la fameuse puce sonore SID, bricole chez MOS Technology un premier prototype avec des composants de PET et un boîtier de calculatrice. Sa vision pencherait plutôt vers une console de jeux sophistiquée. De leur côté, Bill Seiler et John Feagans assemblent un autre prototype en mélangeant différents éléments. Ils ajoutent un port joystick à 9 broches et un connecteur cartouche inspiré de l’Atari 2600, mais insistent surtout pour intégrer le BASIC. Leur conviction : un ordinateur doit permettre de programmer, pas seulement de jouer.
Le prototype final marie ces deux visions. La machine qui en résulte tient ses promesses techniques : un processeur MOS 6502A tournant à environ 1 MHz, 5 Ko de RAM dont 3,5 Ko exploitables, des connecteurs pour cassette et disque, un port joystick, un port utilisateur polyvalent et quatre canaux audio mono générés par la puce VIC. L’ensemble tient dans un boîtier compact aux lignes épurées.
Commodore teste d’abord ses armes au Japon. En octobre 1980, le VIC-1001 sort à 69 800 yens. Tout en rodant la production, cette stratégie d’observation de la réaction des constructeurs nippons s’avère payante. En mai 1981, le VIC-20 débarque aux États-Unis à 299,95 dollars, et au Royaume-Uni en septembre à 199,99 livres sterling.
Tomczyk déploie alors sa stratégie marketing. Il dépose l’expression « the friendly computer » et contourne les revendeurs spécialisés pour investir les grandes surfaces. Cette approche place délibérément le VIC-20 en concurrence avec les consoles de jeux, mettant en avant ses capacités d’ordinateur personnel. La documentation reflète cette philosophie : le manuel privilégie la simplicité et laisse les subtilités techniques au Guide de Référence du Programmeur.
William Shatner, l’inoubliable capitaine Kirk de Star Trek, prête son visage charismatique à la campagne publicitaire. Ses apparitions télévisées marquent les esprits et donnent au VIC-20 une notoriété inespérée. Les résultats suivent. En 1982, les usines Commodore produisent jusqu’à 9 000 unités par jour pour satisfaire une demande qui explose. Le chiffre d’affaires atteint 300 millions de dollars.
L’écosystème logiciel s’étoffe à vitesse grand V. Les jeux dominent naturellement, avec des créations marquantes comme Jelly Monsters, adaptation non autorisée mais réussie de Pac-Man, ou Sword of Fargoal qui exploite habilement les capacités de la machine. Jeff Minter, futur gourou du jeu indépendant, signe ses premières œuvres sur VIC-20 avec Matrix et Laser Zone. Le VICModem, premier modem vendu sous la barre des 100 dollars, ouvre les portes du réseau CompuServe via le Commodore Information Network. Les cartouches de 3, 8 ou 16 Ko étendent la mémoire jusqu’à 32 Ko et multiplient les possibilités.
Le succès dépasse toutes les espérances. Le VIC-20 est le premier ordinateur personnel à franchir le cap du million d’unités vendues. Cette performance historique témoigne de la justesse de la vision de Tramiel : l’ordinateur domestique peut séduire bien au-delà du cercle des passionnés.
Pourtant, ce triomphe porte le germe de sa propre fin. En août 1982, Commodore lance le Commodore 64, machine plus puissante qui cannibalise les ventes de son petit frère. La production du VIC-20 s’arrête fin 1984, et les derniers exemplaires disparaissent des rayons début 1985. Environ 2,5 millions d’unités auront trouvé preneur en quatre années d’existence commerciale, performance remarquable mais éclipsée par la longévité du C64 ou du ZX Spectrum.
Cette disparition prématurée ne diminue en rien l’héritage du VIC-20. La machine finance le développement du Commodore 64, prépare l’acquisition de l’Amiga et établit les codes de l’informatique domestique des années 1980. Sa conception influence durablement l’industrie : compatibilité des périphériques, importance de l’ergonomie, démocratisation assumée. Toute une génération de programmeurs fait ses armes sur cette machine, notamment au Royaume-Uni où elle catalyse la créativité.
Une communauté passionnée maintient la flamme et de nouveaux programmes voient régulièrement le jour, comme Astro Nell ou Game Theory, qui révèlent des capacités insoupçonnées malgré les contraintes matérielles. Ces créations récentes témoignent de la justesse du concept initial : un ordinateur simple et accessible qui libère la créativité plutôt qu’il ne l’entrave.
WordPerfect
L’été 1979, Alan Ashton, professeur d’informatique à l’université Brigham Young, décide de consacrer ses vacances à un projet qui lui tient à cœur : créer un logiciel qui affiche le texte exactement comme il apparaîtra sur le papier. À l’époque, les systèmes existants fonctionnaient avec des codes de mise en forme disgracieux qui polluaient l’affichage. Dans son laboratoire d’Orem, Utah, Ashton pose les premières pierres de ce qui deviendra l’un des succès les plus retentissants de l’informatique personnelle.
Bruce Bastian, ancien chef d’orchestre de l’université reconverti dans l’informatique, apporte son expertise technique au projet. Ensemble, ils développent SSI*WP, l’acronyme de Satellite Software International Word Processor. Le choix du nom révèle leurs ambitions : ils veulent dépasser les frontières géographiques traditionnelles du logiciel.
La commercialisation débute en 1980 avec un prix, qui fait réfléchir, de 5 500 dollars pour une licence destinée aux ordinateurs Data General. Le marché réagit avec prudence. Les ventes restent modestes mais suffisantes pour que la petite équipe garde le contrôle de son destin. Don Owens rejoint l’aventure comme responsable commercial et commence à tisser un réseau de revendeurs. Pete Peterson, ancien comptable, prend en charge les aspects financiers en 1981. Cette équipe fondatrice va se diviser sur une question : faut-il accepter des investissements externes pour accélérer la croissance ?
Owens plaide pour une levée de fonds qui donnerait les moyens d’une expansion rapide. Ashton et Bastian préfèrent une approche plus prudente, quitte à progresser plus lentement. Ces visions incompatibles créent des tensions qui explosent en 1982 avec le départ d’Owens. Rétrospectivement, ce choix de l’indépendance financière s’avérera déterminant pour la suite.
L’arrivée du PC IBM bouleverse la donne. Cette machine démocratise l’informatique personnelle et ouvre des perspectives inouïes. WordPerfect sort sa première version pour PC à la fin 1982. Le logiciel tranche avec la concurrence par sa stabilité remarquable et son ergonomie soignée. Les plantages sont rares, les fonctionnalités nombreuses. La correction orthographique intégrée fait sensation, tout comme la gestion native des notes de bas de page.
La version 4.2, lancée en 1986, propulse WordPerfect vers des sommets inattendus. Plus de la moitié des utilisateurs de traitement de texte choisissent désormais cette solution. Ce succès ne doit rien au hasard. L’entreprise, rebaptisée WordPerfect Corporation, révolutionne les codes du secteur en proposant un support technique gratuit par téléphone. Cette innovation commerciale bouleverse les habitudes : jusqu’alors, obtenir de l’aide coûtait cher et prenait du temps.
L’interface utilisateur de WordPerfect cultive sa différence. Les touches de fonction remplacent les menus déroulants qui équipent déjà d’autres logiciels. Un petit gabarit en carton, posé sur le clavier, rappelle les raccourcis disponibles. Cette approche déroute au début mais révèle vite ses avantages. Grâce à la fonction « Reveal Codes », qui dévoile tous les codes de formatage cachés dans le document, l’efficacité des utilisateurs aguerris redouble. Les avocats et notaires s’entichent de cette transparence qui leur garantit un contrôle total sur la mise en forme de leurs actes.
La croissance de l’entreprise défie l’entendement. De 11 employés en 1981, elle passe à plus de 4 500 en 1992. Le chiffre d’affaires atteint 533 millions de dollars en 1991. Cette expansion fulgurante génère des débats internes sur l’organisation. Peterson défend une structure plate, avec peu de niveaux hiérarchiques, tandis que d’autres dirigeants réclament un management plus classique. Ces désaccords provoquent le départ de Peterson en 1992, privant l’entreprise d’une vision organisationnelle cohérente.
Microsoft Windows 3.0 arrive en 1990. Cette interface graphique moderne séduit les utilisateurs par sa convivialité. WordPerfect commet alors une erreur stratégique majeure : l’entreprise tarde à adapter son logiciel à cet environnement, restant attachée au mode texte de MS-DOS. Microsoft Word for Windows profite de ce retard pour s’imposer. Intégré dans la suite Office, il bénéficie d’une cohérence visuelle et fonctionnelle que WordPerfect peine à rattraper.
Quand WordPerfect for Windows sort enfin en 1991, le mal est fait. Le logiciel souffre de problèmes de performance et d’ergonomie. Les utilisateurs, séduits par la modernité de l’interface graphique, basculent massivement vers la solution de Microsoft. Cette transition marque le début du déclin pour WordPerfect.
Novell rachète WordPerfect Corporation en 1994 pour 1,4 milliard de dollars. Cette acquisition pharaonique tourne au désastre. Le géant des réseaux informatiques ne comprend rien au marché du traitement de texte. Les ventes s’effondrent face à l’hégémonie grandissante de Microsoft Office. Deux ans plus tard, Corel récupère WordPerfect pour seulement 158 millions de dollars, soit près de dix fois moins que le prix d’achat initial.
Cette chute spectaculaire illustre la brutalité des retournements dans l’industrie logicielle. WordPerfect dominait son marché grâce à l’excellence technique et un service client irréprochable. Mais l’entreprise n’a pas su anticiper l’importance de l’interface graphique. Elle a sous-estimé la force de frappe de Microsoft, qui contrôlait à la fois le système d’exploitation et pouvait imposer sa suite bureautique comme standard de fait.
WordPerfect conserve une base d’utilisateurs fidèles, concentrée dans le monde juridique. Les professionnels du droit apprécient toujours sa précision dans le formatage des documents complexes. La fonction « Reveal Codes » est unique en son genre et justifie à elle seule la fidélité de certains utilisateurs.
Avec WordPerfect, l’entreprise a imposé le support client gratuit comme norme industrielle. Ses innovations en matière d’affichage WYSIWYG et de correction orthographique ont inspiré tous ses successeurs. En informatique, le leadership technique ne suffit pas : il faut aussi savoir s’adapter aux ruptures technologiques et comprendre les attentes changeantes des utilisateurs. L’industrie du logiciel est impitoyable. Une entreprise peut dominer un marché pendant des années puis sombrer en quelques mois si elle manque un virage technologique.
ICMP
En 1981, les ingénieurs travaillant sur ARPANET se heurtent à un problème récurrent pour faire savoir à un expéditeur que son paquet s’est perdu en route. Le protocole IP, dans sa conception initiale, ne prévoit aucun mécanisme pour signaler les erreurs. Les paquets disparaissent dans les méandres du réseau sans laisser de trace, et l’expéditeur reste dans l’ignorance du sort de ses données.
Cette lacune, criante avec l’expansion d’ARPANET, Jon Postel et Steve Crocker l’observent depuis UCLA. L’absence de retour d’information paralyse littéralement le diagnostic des pannes. Un routeur surchargé rejette un paquet mais l’expéditeur l’ignore. Une destination est injoignable mais il n’y a aucun moyen de le savoir. Cette situation pousse à la création d’ICMP, l’Internet Control Message Protocol.
Le RFC 792 formalise cette solution en définissant deux grandes familles de messages : ceux qui signalent les erreurs et ceux qui interrogent l’état du réseau. La première catégorie informe l’expéditeur des problèmes rencontrés : destination inaccessible, durée de vie du paquet expirée, paramètres incorrects. La seconde famille sert à sonder le réseau, vérifier qu’un hôte répond ou mesurer le temps de trajet des paquets.
L’architecture technique d’ICMP est particulièrement surprenante. Plutôt que de se positionner au-dessus d’IP comme un protocole de niveau supérieur, ICMP s’y intègre directement. Les messages de contrôle voyagent dans des datagrammes IP ordinaires, empruntant les mêmes chemins que les données qu’ils concernent. Cette approche garantit que les messages d’erreur suivent une route identique à celle des paquets défaillants.
Mike Muuss bouleverse l’usage d’ICMP en 1983 avec son utilitaire ping. Cette petite application exploite les messages « echo request » et « echo reply » pour créer le test de connectivité le plus populaire de l’Internet. Le principe séduit par sa simplicité : envoyer un message à une machine et attendre sa réponse. Si elle répond, la connexion fonctionne. Sinon, un problème existe quelque part sur le chemin.
Le succès de ping inspire d’autres outils. Traceroute détourne astucieusement les messages « time exceeded » pour cartographier les routes réseau. En envoyant des paquets avec des durées de vie progressivement croissantes, l’outil force chaque routeur intermédiaire à renvoyer un message d’erreur, révélant ainsi son identité et sa position dans le chemin.
La découverte du MTU de chemin illustre l’adaptabilité d’ICMP face aux besoins émergents. Cette technique utilise les messages « fragmentation needed » pour déterminer la taille maximale des paquets traversant un chemin réseau sans fragmentation. Le procédé améliore sensiblement les performances en évitant la division des paquets en fragments plus petits.
Mais ICMP attire aussi l’attention des pirates informatiques. Les attaques « ping of death » exploitent des failles dans le traitement des paquets ICMP surdimensionnés, provoquant le plantage de systèmes vulnérables. D’autres attaques utilisent ICMP pour saturer les réseaux de messages de contrôle. Ces détournements malveillants poussent de nombreux administrateurs à filtrer ou bloquer certains messages ICMP, créant parfois des effets de bord indésirables sur le fonctionnement normal des réseaux.
L’arrivée d’IPv6 redéfinit le rôle d’ICMP. La nouvelle version, ICMPv6, absorbe des fonctions auparavant assurées par d’autres protocoles. La découverte des voisins, par exemple, remplace ARP et s’intègre directement dans ICMPv6. Cette consolidation simplifie l’architecture réseau tout en renforçant l’importance d’ICMP dans les infrastructures modernes.
Le protocole ICMP influence la conception d’outils de surveillance réseau sophistiqués qui analysent les messages de contrôle pour détecter les anomalies et mesurer les performances. Les administrateurs réseau apprennent à interpréter ces signaux pour diagnostiquer les pannes et anticiper les problèmes.
Cette transformation d’un simple protocole de contrôle en pierre angulaire de l’infrastructure Internet témoigne de sa conception judicieuse. Sa flexibilité lui a permis de s’adapter aux besoins changeants des réseaux informatiques pendant plus de quarante ans. Aujourd’hui, chaque ping lancé sur Internet perpétue l’héritage de ces premiers ingénieurs d’ARPANET qui voulaient simplement savoir pourquoi leurs paquets se perdaient.
Acorn BBC Micro
En 1980, la BBC traverse une période de questionnements sur l’avenir numérique du Royaume-Uni. Les responsables de la chaîne publique britannique observent avec inquiétude la domination américaine sur le marché de la micro-informatique. Les machines disponibles coûtent une fortune ou se limitent à des capacités dérisoires. Face à ce constat, la BBC décide de prendre les choses en main et lance un projet d’envergure : créer un ordinateur personnel qui accompagnerait ses émissions éducatives.
Le cahier des charges établi par la BBC reflète cette ambition pédagogique. La machine devra intégrer le langage BASIC, disposer d’un véritable clavier digne de ce nom, afficher des graphiques en couleur et accepter des extensions comme le télétexte. Surtout, son prix devra rester à la portée des établissements scolaires et des particuliers motivés. Un défi technique et commercial considérable.
L’appel d’offres lancé fin 1980 attire plusieurs candidats. Parmi eux, Acorn Computers, une petite entreprise de Cambridge qui travaille sur un prototype baptisé Proton. Cette machine impressionne les évaluateurs de la BBC, qui lui préfèrent notamment le Sinclair ZX-81 encore en gestation. Acorn décroche le contrat et renomme officiellement son prototype le « BBC Microcomputer ».
La collaboration entre les ingénieurs d’Acorn et les équipes de la BBC se révèle fructueuse. Le prototype initial subit de nombreuses améliorations qui dépassent largement les spécifications d’origine. ICL et Cleartone se chargent de la fabrication. L’architecture s’appuie sur le processeur 6502A cadencé à 2 MHz, une puce fiable et éprouvée. Deux circuits intégrés spécialisés complètent l’ensemble : l’un gère les graphiques, l’autre les interfaces série.
Deux versions sortent simultanément début 1982. Le modèle A se vend 235 £ avec 16 Ko de mémoire vive, tandis que le modèle B affiche 335 £ pour 32 Ko. Ce dernier embarque davantage de connectivité : interfaces série et parallèle, port utilisateur 8 bits, entrées analogiques et bus d’extension. Une originalité technique mérite d’être soulignée : l’interface « Tube » qui autorise la connexion d’un second processeur.
Le BASIC intégré surprend par sa richesse. Proche du Microsoft BASIC dans sa philosophie, il se distingue par de nombreuses extensions spécifiques. Le système d’exploitation et le BASIC monopolisent 32 Ko de mémoire morte, une allocation généreuse. Le clavier professionnel compte 64 touches disposées selon le standard QWERTY, complété par 10 touches de fonction programmables.
Les performances graphiques constituent un atout majeur. Huit modes différents permettent de mélanger texte et graphiques haute résolution selon les besoins. Le mode 7, compatible télétexte, produit des graphiques couleur en ne consommant qu’un seul Ko de mémoire. Une puce sonore génère trois notes simultanées et divers effets, avec un contrôle logiciel sophistiqué des enveloppes sonores.
L’extensibilité distingue le BBC Micro de ses concurrents. Les interfaces pour lecteur de disquettes et réseau Econet sont directement intégrées sur la carte mère. Une option de synthèse vocale, développée avec Richard Baker, présentateur vedette de la BBC, peut prononcer environ 150 mots préprogrammés. Des adaptateurs Prestel et télétexte, prévus pour le printemps 1982, ouvrent la voie au téléchargement de programmes.
Les possibilités d’extension séduisent les utilisateurs avancés. Un second processeur 6502, un Z-80 pour faire tourner CP/M, ou un processeur 16 bits National 16032 capable d’adresser 16 Mo de mémoire peuvent être connectés via l’interface Tube. Des moniteurs dédiés complètent la gamme : un modèle monochrome à 105 £ et un modèle couleur à 288 £.
La BBC commande des applications professionnelles : traitement de texte, tableur, base de données domestique, conception assistée par ordinateur. Les éditeurs tiers développent des logiciels éducatifs et ludiques. Un manuel utilisateur fouillé accompagne chaque machine, ainsi qu’une cassette de 16 programmes de démonstration.
Quelques défauts ternissent le tableau. Le boîtier plastique manque de solidité. La mémoire utilisateur de 32 Ko s’avère parfois juste, le système d’exploitation pouvant consommer jusqu’à 8 Ko. En mode graphique haute résolution, il ne reste que 2 Ko disponibles. Le mode télétexte affiche parfois des caractères erronés à cause de son jeu de caractères spécifique. Aucun câble magnétophone n’est livré avec la machine.
Ces défauts mineurs ne gâchent pas l’excellence générale du produit. La qualité d’affichage impressionne : 80 caractères par ligne restent parfaitement lisibles sur un téléviseur noir et blanc standard grâce à une police spécialement étudiée. Le mode télétexte offre un des meilleurs rendus visuels de sa génération.
Le BBC Micro surpasse la plupart des productions japonaises et américaines de l’époque par sa richesse technique et sa modularité. Le succès commercial suit : 100 000 unités sont prévues pour la première année. Cette réussite découle de la rencontre entre l’expertise technique d’Acorn et la vision éducative de la BBC.
La machine est l’outil pédagogique de référence dans les écoles britanniques des années 1980. Elle initie toute une génération à l’informatique ainsi que la culture numérique nationale. L’expérience acquise par Acorn dans la conception de processeurs débouchera plus tard sur l’architecture ARM, présente dans la quasi-totalité des appareils mobiles modernes de la planète.
IBM PC-5150
Quand IBM annonce son Personal Computer 5150 en août 1981, l’entreprise débarque avec six ans de retard sur un marché occupé par Apple, Atari, Commodore et Radio Shack. Cette arrivée tardive force Big Blue à bouleverser ses habitudes : fini le développement entièrement interne, place aux partenariats externes. Une équipe de douze personnes seulement va concevoir cette machine en un an, temps record pour IBM.
L’approche surprend. Intel fournit le processeur, Microsoft livre PC-DOS et BASIC. La distribution aussi rompt avec les traditions : plutôt que ses propres circuits, IBM choisit Computerland et Sears. Pour la publicité, l’entreprise abandonne son image austère et mise sur le Vagabond de Charlie Chaplin dans une série de spots télévisés décalés.
À 1 565 dollars pour le modèle de base, sans lecteur de disquettes ni écran, le PC 5150 vise d’abord les particuliers. Ils peuvent brancher leur téléviseur comme moniteur et utiliser un magnétophone pour sauvegarder leurs données. Les professionnels, eux, déboursent 4 500 dollars pour une configuration complète avec 64 Ko de mémoire, deux lecteurs de disquettes, écran couleur et imprimante matricielle. Ajustés à l’inflation et convertis en francs suisses actuels, ces montants atteindraient 6 000 et 14 000 CHF.
Techniquement, rien de spectaculaire. Le processeur Intel 8088 tourne à 4,77 MHz, soit mille fois moins que nos puces actuelles. Ce dérivé économique du 8086 se contente d’un bus 8 bits pour les données en adressant jusqu’à 1 Mo de mémoire. La carte mère accueille entre 16 et 64 Ko de RAM, deux lecteurs 5,25 pouces de 160 Ko chacun.
Quelques détails marquent pourtant une rupture. Le clavier détaché fait figure d’exception à une époque où la plupart des ordinateurs l’intègrent dans le boîtier principal. Ses 83 touches pèsent 2,7 kg et produisent ce claquement caractéristique qui ravira les nostalgiques. L’unité centrale avec ses lecteurs affiche 12,7 kg sur la balance, le moniteur 7,7 kg. Total : 23 kg d’informatique domestique.
Pas de disque dur en série, il faudra attendre l’extension 5161. Pas de souris non plus, elle ne se démocratisera que plus tard. Le stockage passe par cassette audio via un connecteur spécialisé ou par disquettes. Les premières versions utilisent des supports simple face de 160 Ko, puis double face de 360 Ko pour le modèle B commercialisé dès 1983.
IBM surprend par sa transparence technique. La documentation fournie avec le PC 5150 dévoile tout : schémas électroniques, diagrammes d’architecture, spécifications d’interfaces, code source du BIOS. Cette ouverture inhabituelle dope la création de cartes d’extension et de logiciels compatibles. Mais elle ouvre aussi la porte aux clones moins chers qui proliféreront.
Cinq slots internes acceptent les extensions via ce qu’IBM baptise « I/O Channel », ancêtre du standard ISA. Ces connecteurs 62 broches accueillent contrôleurs de disquettes, adaptateurs graphiques, interfaces parallèles pour imprimantes ou ports série RS-232 pour modems. Les PC contemporains ont abandonné ces bus parallèles pour des connexions série comme PCI Express ou USB, plus véloces.
PC-DOS gère les fichiers avec le système FAT, sans sous-répertoires dans sa première mouture. Tous les fichiers s’étalent dans une structure plate : 64 maximum sur disquette simple face, 112 sur double face. Les virus informatiques et le piratage, même s’ils existent, n’ont pas contaminé la planète. Le manuel évoque uniquement la sécurité physique : ranger ses disquettes à l’abri, sauvegarder régulièrement, contrôler l’accès à la machine. Le premier virus pour PC compatible IBM, Brain, n’apparaîtra qu’en 1986.
La production du 5150 s’arrête en 1987, remplacé par le modèle 5160. L’internationalisation démarre en 1983. Son architecture influence toujours nos machines actuelles, des objets connectés aux serveurs cloud d’entreprise. Les choix d’IBM – composants standardisés, documentation exhaustive – créent un écosystème ouvert qui dominera le marché.
MS-DOS
Jusqu’alors centré sur les gros systèmes, IBM a donc jeté son dévolu sur le marché des ordinateurs personnels en 1980. La firme d’Armonk cherche un système d’exploitation pour sa future machine. Elle se tourne vers Microsoft, une petite société que Bill Gates et Paul Allen ont créée quelques années plus tôt. Problème : Microsoft ne possède aucun système d’exploitation digne de ce nom.
La solution vient de Seattle Computer Products. Cette entreprise a développé QDOS – Quick and Dirty Operating System – sous la houlette de Tim Paterson. L’histoire de QDOS mérite qu’on s’y arrête. En mai 1979, Seattle Computer Products conçoit une carte processeur 8086 pour le bus S-100. L’entreprise compte sur Digital Research pour livrer CP/M-86, mais les promesses s’éternisent. Lassés d’attendre, les ingénieurs décident de créer leur propre système. Paterson s’attelle à la tâche en avril 1980. Deux mois plus tard, QDOS voit le jour, et le système fonctionne remarquablement bien pour un développement si rapide.
Microsoft flaire la bonne affaire. La société fait l’acquisition d’une licence non-exclusive de QDOS pour 25 000 dollars en décembre 1980. Quelques mois plus tard, elle rachète l’intégralité des droits pour 50 000 dollars supplémentaires. Tim Paterson rejoint l’équipe de Microsoft pour transformer QDOS en MS-DOS.
Le premier IBM PC sort en 1981, équipé de MS-DOS 1.0. Ce système d’exploitation rudimentaire fonctionne entièrement en mode texte. L’utilisateur tape des commandes : DIR pour lister les fichiers, COPY pour les dupliquer, ERASE pour les supprimer. Pas de répertoires, juste des disquettes de 160 Ko. Austère, certes, mais fonctionnel.
Les améliorations arrivent. MS-DOS 2.0 débarque en 1983 avec le support des disques durs de 10 Mo et une structure de fichiers hiérarchique. Cette version emprunte à UNIX quelques idées, notamment un processeur de commandes par lots plus sophistiqué. MS-DOS 3.0 suit en 1984, taillé sur mesure pour l’IBM PC AT. Le système de fichiers FAT16 fait son apparition, gérant des partitions jusqu’à 32 Mo.
L’architecture technique repose sur trois composants principaux. Le fichier caché MSDOS.SYS contient le cœur du système et traite les requêtes de haut niveau des programmes. IO.SYS s’occupe des aspects matériels, cette couche d’abstraction entre le logiciel et le hardware. COMMAND.COM fournit l’interface utilisateur, cette invite de commande que des millions d’utilisateurs apprendront à connaître.
Le système de fichiers FAT révolutionne la gestion de l’espace disque. Une table d’allocation suit l’usage de chaque unité, composée de plusieurs secteurs consécutifs. Cette approche évite la fragmentation externe mais génère une fragmentation interne : la dernière unité d’un fichier n’est jamais complètement remplie. Un compromis technique qui fera ses preuves.
Microsoft joue finement sa partition commerciale. L’accord avec IBM autorise la vente de MS-DOS à d’autres fabricants. Cette stratégie établit MS-DOS comme standard de facto pour tous les PC compatibles IBM. Quand Windows 3.0 débarque en 1990, l’interface graphique s’appuie sur MS-DOS. Le succès est au rendez-vous.
MS-DOS 6.0 arrive en 1993 avec son lot de nouveautés : DoubleSpace pour compresser les disques, un antivirus intégré, un système de sauvegarde. Mais DoubleSpace pose problème. Des corruptions de données incitent Microsoft à publier la version 6.2, complétée de ScanDisk pour réparer les disques endommagés. L’année ne se termine pas en beauté : Stac Electronics attaque Microsoft pour violation de brevet sur l’algorithme de compression. Microsoft perd et doit retirer DoubleSpace. La version 6.22 sort en 1994 avec DriveSpace, utilisant un nouvel algorithme pour éviter tout litige.
Windows 95 sonne le glas de l’âge d’or de MS-DOS. Le système intègre MS-DOS 7.0 comme simple composant de démarrage et de compatibilité. Windows 98 et Me gardent encore MS-DOS, mais son influence s’amenuise. Windows XP, en 2001, ferme définitivement le chapitre, ne conservant qu’une compatibilité minimale pour faire tourner d’anciennes applications récalcitrantes.
Le système MS-DOS standardise l’univers PC en accompagnant l’éclosion d’un écosystème logiciel d’une richesse inouïe. Des traitements de texte aux tableurs, des bases de données aux jeux, tout un monde d’applications naît. Des entreprises comme Lotus, Borland ou WordPerfect bâtissent leur fortune sur cette plateforme.
MS-DOS démocratise l’informatique à sa manière. Son interface en ligne de commande, austère et exigeante, forme toute une génération d’utilisateurs. Apprendre MS-DOS, c’est comprendre la logique interne de la machine. Cette école de rigueur forge des compétences qui se révéleront précieuses avec l’arrivée des interfaces graphiques, car l’invite de commande Windows conserve nombre de commandes héritées de MS-DOS : DIR, COPY, DEL fonctionnent encore. Les concepts de gestion des fichiers, d’allocation mémoire et d’exécution des programmes établis à cette époque constituent toujours les fondements des systèmes actuels. DOSBox et d’autres émulateurs préservent cette histoire, permettant aux nostalgiques de retrouver leurs anciens logiciels.
MS-DOS est un jalon important de l’informatique personnelle. Ce système humble et efficace a rendu possible l’explosion du PC. Sans lui (et QDOS), l’histoire de Microsoft aurait pris un cours différent, et l’informatique grand public aurait peut-être emprunté d’autres chemins.
Osborne 1
Adam Osborne avait compris quelque chose que peu d’entrepreneurs saisissaient en 1980. Auteur d’ouvrages informatiques et patron d’une maison d’édition spécialisée, il observait un marché en pleine ébullition où les micro-ordinateurs restaient cantonnés aux bureaux et aux laboratoires. Son idée paraissait simple : créer un ordinateur que l’on puisse emporter partout.
En avril 1981, dans les colonnes de Creative Computing Magazine, Osborne exposait sa vision avec une lucidité remarquable. Il identifiait cinq besoins fondamentaux que devait satisfaire un ordinateur personnel : un prix abordable, une simplicité d’usage sans sacrifier la polyvalence, la capacité de transport, une compatibilité logicielle grâce à des systèmes standardisés, et une adaptabilité aux exigences des développeurs. Cette analyse découlait directement de son expérience dans l’industrie et de sa frustration face aux limitations des machines existantes.
L’Osborne 1 matérialisait cette réflexion. Avec ses 10,9 kg, la machine adoptait un design tout-en-un audacieux : écran de 5 pouces, deux lecteurs de disquettes, clavier détachable et alimentation intégrés dans un boîtier unique transportable. Cette approche tranchait radicalement avec les systèmes traditionnels qui nécessitaient de multiples composants reliés par un enchevêtrement de câbles.
Techniquement, l’ordinateur se montrait cohérent. Son processeur Zilog Z80A cadencé à 4 MHz, ses 64 Ko de RAM et son système d’exploitation CP/M offraient des performances correctes pour l’époque. L’écran affichait 52 caractères sur 24 lignes, avec possibilité de défilement horizontal jusqu’à 128 caractères. Chaque lecteur de disquettes 5,25 pouces proposait 102 Ko de stockage. Cette configuration représentait en 1981 un compromis judicieux entre performances et mobilité.
Osborne avait surtout compris l’importance du logiciel. Pour 1 795 dollars, l’acheteur recevait la machine accompagnée d’une suite complète incluant WordStar pour le traitement de texte, SuperCalc comme tableur, ainsi que BASIC et CBASIC pour la programmation. Cette stratégie de regroupement logiciel était inédite et transformait l’achat d’un simple matériel en acquisition d’un environnement de travail complet.
La cible commerciale s’articulait autour de trois segments distincts. Les professionnels itinérants y trouvaient un moyen de gérer leurs documents et tableurs en déplacement, avant de synchroniser leur travail au bureau via modem. Le secteur éducatif découvrait une solution économique pour équiper les établissements en matériel informatique. Les particuliers accédaient enfin à une alternative abordable aux ordinateurs de bureau traditionnels.
Le succès dépassa toutes les prévisions. La société Osborne Computer Corporation connut une croissance fulgurante, devenant l’une des entreprises à la progression la plus rapide de l’histoire américaine. Les ventes atteignirent 10 000 unités mensuelles, générant plus de 70 millions de dollars de chiffre d’affaires dès la première année.
Les défauts de la machine se révélèrent. L’écran 5 pouces, constamment critiqué, contraignait les utilisateurs à un défilement horizontal permanent pour consulter des documents standard. Le stockage sur disquette se révélait insuffisant pour certaines applications professionnelles. Osborne réagit en développant une option double densité portant la capacité à 200 Ko par disque.
En 1982, l’entreprise annonça une amélioration majeure : le SCREEN-PAC, option d’affichage 80/104 colonnes. Cette mise à niveau matérielle permettait d’afficher jusqu’à 104 caractères par ligne, rapprochant l’Osborne 1 des standards industriels. L’annonce prématurée de cette amélioration non disponible provoqua cependant un effet pervers : les ventes du modèle existant chutèrent brutalement. Ce phénomène, baptisé plus tard « effet Osborne », illustrait les dangers d’une communication produit mal maîtrisée.
L’influence de l’Osborne 1 sur l’industrie informatique dépassa largement son succès commercial. Il établit plusieurs standards durables : l’intégration complète des composants, l’inclusion systématique de logiciels avec le matériel, et un positionnement prix accessible. Son impact se manifesta directement dans le développement des premiers portables d’IBM, Compaq et autres constructeurs qui dominèrent ensuite le marché.
La machine introduisait des innovations techniques remarquables. Son clavier utilisait une technologie full travel membrane offrant une qualité de frappe excellente tout en résistant aux infiltrations de poussière et de liquides. Sa conception modulaire simplifiait les réparations. L’adoption du bus S-100 et du système CP/M garantissait une compatibilité avec un vaste écosystème logiciel existant.
La robustesse de l’appareil impressionnait. Des tests documentés dans The Portable Companion rapportaient sa survie à des chutes dans des escaliers et à des conditions d’utilisation extrêmes. Cette solidité, couplée à sa portabilité, en faisait un outil parfaitement adapté aux professionnels mobiles.
L’Osborne 1 transforma l’organisation du travail en entreprise. Il permit l’émergence du concept de « bureau mobile », autorisant les employés à emporter leur environnement numérique en déplacement. Cette évolution annonçait les mutations que connaîtrait l’organisation du travail avec la généralisation de l’informatique portable.
La chute fut aussi brutale que l’ascension avait été fulgurante. En septembre 1983, Osborne Computer Corporation déposait le bilan, victime de la concurrence accrue, de difficultés de production et d’erreurs stratégiques. L’entreprise avait sous-estimé la vitesse d’évolution du marché et la nécessité d’innovation constante. En deux ans, l’Osborne 1 passa du statut d’innovation révolutionnaire à celui de technologie dépassée. Son impact sur la démocratisation de l’informatique portable et l’établissement de standards industriels est néanmoins indéniable.
L’expérience Osborne rappelle l’importance de la portabilité, la nécessité d’un écosystème logiciel complet, et l’équilibre délicat entre innovation technologique et attentes du marché. L’Osborne 1 a écrit malgré tout un chapitre incontournable de l’histoire de l’informatique personnelle.
LZW
L’algorithme de compression LZW raconte une histoire singulière, celle d’une découverte théorique qui a mis des années avant de trouver sa forme pratique. Tout commence en 1977, quand Abraham Lempel et Jacob Ziv publient dans l’IEEE Transactions on Information Theory un article aux allures hermétiques intitulé « A Universal Algorithm for Sequential Data Compression ». Leur travail expose une méthode utilisant des dictionnaires de phrases qui glissent sur un texte déjà lu, construisant progressivement de nouveaux motifs en ajoutant des symboles aux séquences existantes.
L’année suivante, les deux chercheurs récidivaient dans la même revue avec une version affinée de leur algorithme. Ces publications restaient néanmoins très abstraites, posant certes les fondations théoriques mais laissant le lecteur sur sa faim quant aux applications concrètes. Il fallut attendre 1984 pour qu’un troisième larron entre en scène et transforme ces travaux académiques en une technologie utilisable.
Terry Welch travaillait au Sperry Research Center quand il publia dans Computer magazine son article « A technique for High-Performance Data Compression ». Son apport révolutionna pourtant l’approche de Lempel et Ziv. Welch eut l’idée de pré-remplir le dictionnaire avec les 256 caractères ASCII standards plutôt que de partir d’un dictionnaire vide. Cette modification permit de traiter immédiatement tous les caractères simples, y compris lors de leur première apparition. Les codes restants, de 256 à 4095 dans un dictionnaire sur 12 bits, pouvaient ainsi servir exclusivement aux nouvelles séquences découvertes.
L’algorithme LZW était né, portant les initiales de ses trois créateurs. Sa force résidait dans sa capacité à dénicher et éliminer les redondances tout en garantissant une restitution parfaite des données originales. Contrairement à d’autres méthodes, LZW n’envoyait jamais les caractères bruts mais uniquement des codes, ce qui généraient des gains substantiels sur les fichiers contenant des motifs répétitifs.
Une caractéristique remarquable de cet algorithme tenait à son autonomie lors de la décompression. Le décodeur n’avait pas besoin de recevoir le dictionnaire utilisé pour la compression ; il pouvait le reconstituer à l’identique en appliquant les mêmes règles que le compresseur. Cette propriété rendait LZW économe en mémoire et rapide à l’exécution.
L’industrie informatique s’empara de cette innovation. En 1987, CompuServe lança le format GIF (Graphics Interchange Format), qui exploitait LZW pour compresser les images. Ce format devint vite incontournable sur les premiers réseaux puis sur Internet, notamment grâce à sa capacité à stocker de nombreuses images dans un fichier unique et à gérer la transparence. UNIX intégra aussi l’algorithme dans sa commande compress, tandis que les formats TIFF et PDF l’adoptaient pour leurs besoins spécifiques.
Les performances de LZW variaient considérablement selon le type de données traitées. Les textes en langue naturelle, riches en redondances, lui convenaient parfaitement, tout comme les images contenant de vastes zones uniformes. Sur ces contenus, l’algorithme atteignait couramment des taux de compression de 50% ou plus. En revanche, les fichiers binaires donnaient des résultats plus imprévisibles : certains se compressaient mieux que du texte ordinaire, d’autres résistaient obstinément à tout traitement.
L’implémentation pratique de LZW nécessitait de résoudre quelques casse-têtes techniques. Le plus délicat survenait lors de la décompression, quand le décodeur rencontrait un code avant d’avoir pu le définir. Cette situation baroque se produisait avec des séquences du type (chaîne, caractère, chaîne, caractère, chaîne), où l’algorithme émettait un code que le décompresseur n’avait pas encore eu l’occasion de créer. Il fallait donc prévoir un mécanisme d’exception spécifique pour gérer ces cas particuliers.
La belle histoire de LZW connut un tournant inattendu dans les années 1990. Unisys, détenteur d’un brevet sur l’algorithme, commença à réclamer des redevances pour toute utilisation commerciale. Cette revendication soudaine provoqua un tollé dans la communauté informatique et poussa au développement du format PNG (Portable Network Graphics) comme alternative libre au GIF. Le brevet finit par expirer en 2003 aux États-Unis et en 2004 ailleurs, libérant enfin l’algorithme de ces contraintes juridiques.
La taille du dictionnaire influençait directement l’efficacité de la compression. Un dictionnaire de 12 bits, capable de stocker 4096 entrées, représentait souvent un équilibre satisfaisant entre taux de compression et consommation mémoire. L’algorithme gagnait en performance avec des fichiers volumineux, car le dictionnaire avait davantage d’occasions de repérer et réutiliser des motifs récurrents.
Sur les petits fichiers, LZW montrait ses faiblesses. Le coût de stockage du dictionnaire pouvait dépasser le bénéfice de la compression, rendant le fichier compressé plus volumineux que l’original. Des variantes comme LZWS (Lempel-Ziv-Welch-Setia) tentèrent d’adapter dynamiquement la stratégie selon la taille des données, avec un succès mitigé.
L’algorithme LZW établit des principes durables dans le domaine de la compression : l’usage de dictionnaires adaptatifs, la compression sans perte, l’importance de l’autonomie lors de la décompression. Il occupe une place particulière dans l’écosystème informatique. Des méthodes plus récentes offrent certes de meilleurs taux de compression, mais sa simplicité relative en fait un excellent outil pédagogique pour comprendre les mécanismes fondamentaux de la compression de données. Il reste utilisé dans certaines applications spécifiques où sa robustesse et sa rapidité d’exécution compensent ses limitations. Dans l’histoire des technologies de l’information, LZW demeure l’un des premiers algorithmes de compression à avoir connu un succès commercial durable et une adoption véritablement universelle.
AutoCAD
En 1982, la conception assistée par ordinateur est l’apanage de quelques privilégiés. Les systèmes de CAO coûtent une fortune – plusieurs centaines de milliers de dollars – et nécessitent des machines spécialisées que seules les grandes entreprises peuvent s’offrir. Une poignée de programmeurs décide de changer la donne.
John Walker réunit autour de lui une quinzaine de développeurs, la plupart issus d’Information Systems Design, une société travaillant sur les systèmes UNIVAC. Ils créent Autodesk avec une idée simple mais audacieuse : développer des logiciels de CAO pour les micro-ordinateurs personnels qui commencent à envahir les bureaux. L’organisation qu’ils mettent en place détonne pour l’époque : chacun travaille depuis son domicile, communiquant par téléphone et courrier. Avec 59 000 dollars d’investissement initial, ils lancent une poignée de projets en parallèle, convaincus que l’un d’eux finira par percer.
Le déclic vient de Mike Riddle et de son programme Interact, écrit dans un langage de programmation qu’il a lui-même conçu. L’équipe d’Autodesk rachète le code source et entreprend de le réécrire entièrement en C. Dan Drake et Greg Lutz se chargent de cette conversion délicate, transformant progressivement ce logiciel de dessin en ce qui deviendra AutoCAD. Le choix du langage C, encore peu répandu dans le monde commercial, se révèle judicieux pour la portabilité future du logiciel.
Fin 1982, au salon Comdex de Las Vegas, AutoCAD fait ses premiers pas publics. Le logiciel tourne sur un IBM PC équipé de 64 Ko de mémoire et de deux lecteurs de disquettes. Pour frapper les esprits, l’équipe organise une démonstration avec une table traçante HP empruntée pour l’occasion. Le prix annoncé fait sensation : 1 000 dollars, certes considérable pour un logiciel PC, mais dérisoire comparé aux solutions existantes.
Mike Ford élabore une stratégie commerciale originale qui repose sur un réseau de revendeurs formés. Ces derniers assurent le support technique de première ligne, libérant ainsi Autodesk des contraintes du service client direct. Cette approche décentralisée correspond bien à l’ADN de l’entreprise et à sa philosophie du travail à distance.
AutoCAD séduit sa clientèle cible : les petits cabinets d’architecture et d’ingénierie. Sa capacité à fonctionner sur différentes plateformes matérielles et à échanger des fichiers de manière transparente représente un atout majeur dans un monde informatique très cloisonné. Les utilisateurs apprécient cette souplesse qui leur évite d’être prisonniers d’un constructeur particulier.
L’équipe technique maintient un rythme effréné d’innovations. Le support du coprocesseur mathématique 8087 d’Intel accélère considérablement les calculs. L’intégration d’un langage LISP offre aux utilisateurs avancés la possibilité d’étendre les fonctionnalités du logiciel selon leurs besoins spécifiques. Les outils de cotation deviennent de plus en plus sophistiqués. Chaque semaine, lors des réunions techniques collégiales, l’équipe tranche sur les orientations futures du produit.
Trois ans après sa création, Autodesk entre en bourse. La société n’a jamais fait appel au capital-risque, se développant uniquement grâce à ses revenus propres. Business Week la classe deux années consécutives comme l’entreprise à plus forte croissance. John Walker, peu attiré par les aspects managériaux, transmet les rênes à Al Green, puis à Carol Bartz en 1992.
L’arrivée de Windows 3.0 en 1990 bouleverse la donne technique. Jusqu’alors, AutoCAD fonctionnait principalement sous DOS et était porté sur de nombreuses variantes UNIX. La direction prend le parti de concentrer ses efforts sur Windows, anticipant la domination future de ce système. Cette décision coïncide avec l’émergence de la modélisation 3D comme fonctionnalité incontournable, développée sous l’impulsion de Scott Heath.
AutoCAD a réussi là où d’autres ont échoué grâce à différents ingrédients : une équipe technique exceptionnelle obsédée par la qualité et la compatibilité, une stratégie commerciale efficace via les revendeurs, un positionnement tarifaire accessible, et une capacité remarquable à suivre l’évolution rapide du matériel informatique. En démocratisant la CAO et en la rendant accessible aux petites structures, le logiciel a transformé les pratiques de conception dans l’industrie et l’architecture.
CD-ROM
Au tournant des années 1980, l’informatique personnelle vivait à l’heure des disquettes. Ces petits carrés de plastique, fragiles et limités à quelques centaines de kilo-octets, constituaient le principal moyen d’échanger programmes et données. L’idée qu’un seul disque puisse contenir l’équivalent de plusieurs centaines de disquettes relevait de la science-fiction. Pourtant, cette révolution se préparait déjà dans les laboratoires de Philips.
L’histoire commence par les recherches sur le stockage optique menées par l’entreprise néerlandaise durant les années 1970. Les ingénieurs de Philips travaillaient sur le système VLP, une technologie qui gravait des signaux vidéo analogiques sur un disque en plastique lu par laser. Ces expérimentations, d’abord destinées à remplacer les cassettes vidéo, allaient ouvrir une voie totalement inattendue. Car de ces travaux naîtrait d’abord le Compact Disc audio, puis son descendant informatique : le CD-ROM.
La collaboration entre Philips et Sony débouche en 1983 sur l’annonce du CD-ROM, acronyme de Compact Disc Read-Only Memory. Les deux géants de l’électronique définissent ensemble les spécifications techniques dans le fameux « Yellow Book », document de référence qui établit les règles du nouveau format. Le concept reprend les dimensions physiques du CD audio : un disque de polycarbonate de 12 cm de diamètre sur 1,2 mm d’épaisseur, parcouru par un laser infrarouge qui déchiffre les informations gravées sous forme de microsillons.
Mais là où le CD audio stocke de la musique, le CD-ROM organise les données différemment. Il propose deux modes de fonctionnement. Le Mode 1 privilégie la fiabilité pour les données informatiques grâce à un système de correction d’erreurs renforcé. Le Mode 2 se destine aux contenus audio et vidéo compressés, acceptant quelques erreurs mineures imperceptibles à l’oreille ou à l’œil humain.
La capacité de stockage révolutionne les habitudes : 650 Mo d’un coup, soit l’équivalent de 450 disquettes standard. Avec cette abondance subite, les éditeurs de logiciels peuvent enfin concevoir des applications ambitieuses sans se soucier des contraintes de place. Fini le temps où il fallait rogner sur les fonctionnalités pour tenir sur quelques disquettes.
Les premiers lecteurs de CD-ROM arrivent sur le marché en 1985. Ces machines coûteuses et relativement poussives affichent une vitesse de transfert de 150 Ko/s, baptisée « simple vitesse » ou « 1X » dans le jargon technique. L’adoption est d’abord confidentielle, réservée aux professionnels et aux passionnés fortunés. Il faudra attendre le début des années 1990 pour que la technologie trouve vraiment son public.
L’essor du multimédia change tout. Les développeurs de jeux vidéo et d’applications éducatives découvrent les possibilités offertes par cette nouvelle capacité de stockage. Là où Windows 95 nécessitait pas moins de 13 disquettes dans sa version de base, la version CD-ROM tient sur un seul disque et simplifie radicalement l’installation. Plus besoin de jongler avec une pile de disquettes, de surveiller l’ordre d’insertion, de redémarrer la procédure quand l’une d’elles se révèle défectueuse.
L’industrie du jeu vidéo saisit l’opportunité. Le CD-ROM favorise l’intégration de séquences vidéo de qualité cinématographique, de la musique orchestrale et de graphismes détaillés jusqu’alors impensables. Sony construit le succès de sa PlayStation sur cette technologie, abandonnant les cartouches coûteuses pour miser sur le CD-ROM. Les jeux prennent une ampleur nouvelle, les studios peuvent raconter des histoires complexes avec des moyens de production décuplés.
La course à la vitesse s’engage. Les constructeurs rivalisent d’ingéniosité pour accélérer la lecture des données. De 1X, on passe à 2X, 4X, 8X et bien au-delà, jusqu’à atteindre 52X au début des années 2000. Cette montée en puissance s’accompagne d’une chute spectaculaire des prix. Les lecteurs, d’abord vendus plusieurs milliers de francs, sont maintenant accessibles au grand public. Les disques vierges suivent une trajectoire identique, transformant le CD-ROM en support d’archivage abordable.
L’évolution technique ne s’arrête pas là. En 1988 apparaît le CD-R, permettant enfin aux utilisateurs de graver leurs propres disques. Cette innovation démocratise la production de CD personnalisés, ouvrant la voie aux sauvegardes individuelles et à l’échange de données entre particuliers. Le support de stockage CD-RW, introduit en 1997, franchit un pas supplémentaire vers la polyvalence en autorisant l’effacement et la réécriture des données.
La standardisation est la clé de ce succès. Les spécifications techniques font l’objet de normes internationales strictes, l’ISO 9660 définissant notamment le système de fichiers universel. Cette approche, héritée du format « High Sierra » de 1985, garantit qu’un CD-ROM gravé sur une machine pourra être lu sur n’importe quelle autre, quel que soit le fabricant du lecteur.
Le CD-ROM engendre une famille nombreuse de formats dérivés. Le CD-i vise les applications multimédias interactives, le Video CD s’attaque au marché de la vidéo domestique, le Photo CD révolutionne le stockage d’images numériques. Ces déclinaisons rencontrent des fortunes diverses, mais témoignent de la richesse conceptuelle du support originel.
Le CD-ROM rend possible la distribution d’encyclopédies multimédias comme Encarta, de collections documentaires exhaustives, de bases de données professionnelles volumineuses. Il contribue directement à l’explosion du multimédia dans les années 1990, période où l’ordinateur personnel cesse d’être une simple machine à traitement de texte pour devenir un centre de divertissement familial.
Cette hégémonie commence à vaciller au début des années 2000. Le DVD, avec sa capacité de stockage supérieure, relègue progressivement le CD-ROM au second plan. L’arrivée d’Internet à haut débit et la généralisation des clés USB accélèrent le processus. La dématérialisation des logiciels, téléchargés directement depuis les serveurs des éditeurs, porte un coup supplémentaire au support physique.
Intel 80286
Le 1er février 1982 marque l’entrée en scène de l’Intel 80286, baptisé iAPX 286 dans la terminologie officielle d’Intel. Cette puce de 134 000 transistors s’impose comme un tournant dans l’évolution des microprocesseurs 16 bits. Son destin se lie intimement à celui de l’IBM PC/AT dès 1984, puis à l’ensemble de l’écosystème des compatibles PC/AT qui domineront le paysage informatique jusqu’aux premières années 1990.
L’histoire des performances du 80286 raconte celle d’une montée en puissance progressive. Intel lance ses premiers modèles à 6 MHz et 8 MHz, avant de proposer des versions plus véloces culminant à 12,5 MHz. AMD et Harris pousseront plus tard cette architecture vers des sommets inattendus : 20 MHz pour le premier, 25 MHz pour le second. Ces chiffres masquent une réalité plus nuancée : le processeur n’exécute en moyenne que 0,21 instructions par cycle d’horloge. Traduite en puissance brute, cette cadence donne 0,9 MIPS pour le modèle 6 MHz, 1,5 MIPS à 10 MHz, et 1,8 MIPS à 12 MHz.
Sous le capot, Intel a repensé l’architecture de fond en comble. Le 80286 double pratiquement les performances par cycle par rapport à ses aînés 8086 et 8088. Cette prouesse technique ne relève pas de la magie : elle résulte d’optimisations ciblées, comme le traitement des modes d’adressage complexes base+index par un circuit dédié plutôt que par l’unité arithmétique générale. Les calculs mathématiques exigeants, multiplication et division en tête, réclament désormais moins de cycles.
Le bond le plus spectaculaire concerne l’adressage mémoire. Avec ses 24 bits d’adresses, le 80286 gère théoriquement jusqu’à 16 Mo de RAM, pulvérisant la barrière du mégaoctet qui bridait le 8086. Cette capacité est toutefois largement théorique dans la pratique quotidienne. Le prix prohibitif de la mémoire vive et la rareté des logiciels compatibles cantonnent la plupart des machines à un seul mégaoctet. L’accès à cette mémoire étendue depuis le mode réel traditionnel impose par ailleurs une pénalité de performance non négligeable.
L’apport majeur du 80286 réside dans son mode protégé. Cette innovation le hisse au niveau des processeurs professionnels de l’époque. Au-delà de l’exploitation des 16 Mo de mémoire physique grâce à son unité de gestion mémoire intégrée, ce mode ouvre un espace d’adressage logique d’un gigaoctet. La fin des plantages causés par des applications indisciplinées qui écrivent n’importe où est arrivée. La protection mémoire est désormais réelle. Le système organise la mémoire en segments distincts pour les données, le code et la pile, avec une hiérarchie de privilèges qui interdit aux programmes de bas niveau d’interférer avec ceux de niveau supérieur.
Cette belle mécanique cache néanmoins un défaut rédhibitoire. Une fois basculé en mode protégé, le 80286 ne peut revenir au mode réel compatible 8086 qu’au prix d’une réinitialisation complète. IBM déploie des trésors d’ingéniosité dans le PC/AT pour contourner cette limitation : circuits externes, code spécialisé dans le BIOS ROM, séquence d’instructions alambiquée qui provoque la réinitialisation tout en préservant mémoire et contrôle. La solution fonctionne, mais la performance en pâtit lourdement.
Ces contraintes techniques influencent directement l’écosystème logiciel. En janvier 1985, Digital Research s’associe à Intel pour présenter Concurrent DOS 286, un système d’exploitation pensé pour exploiter nativement le mode protégé dans un environnement multi-utilisateur et multitâche. Le projet se heurte aux réalités du terrain : l’émulation du 8086 sur les puces de production révèle des dysfonctionnements. Intel réagit en corrigeant les erreurs documentées dans le pas E-1, et en modifiant carrément le microcode dans le pas E-2 pour accélérer l’émulation. Ces améliorations permettent à IBM d’adopter DR Concurrent DOS 286 comme fondation de son système IBM 4680 OS en 1986, destiné aux produits IBM Plant System et aux terminaux de vente.
Les critiques pleuvent sur le 80286. Bill Gates, jamais avare en formules choc, le qualifie de « puce au cerveau mort », anticipant l’impossibilité pour Windows d’exécuter plusieurs applications MS-DOS en parallèle. Cette position accentue la rupture entre Microsoft et IBM, cette dernière s’obstinant à développer OS/2 pour le 286 en mode texte, projet initialement commun aux deux géants.
Malgré ses imperfections criantes, le 80286 démocratise des mécanismes de protection mémoire jusque-là réservés aux ordinateurs centraux et mini-ordinateurs. Là où ses concurrents NS320xx et M68000 nécessitent des composants externes pour gérer la MMU, le 80286 intègre ces fonctions directement sur sa puce. Cette intégration, couplée aux gains de performance substantiels, propulse l’architecture x86 et les PC IBM depuis l’entrée de gamme jusqu’aux stations de travail et serveurs haut de gamme.
Le processeur enrichit aussi les capacités de calcul en gérant différents types de nombres : décimal condensé non signé, binaire non signé, décimal non condensé non signé, binaire signé et virgule flottante. Ces fonctionnalités, alliées à sa capacité multitâche, l’orientent vers les applications de communication, le contrôle de processus temps réel et les systèmes multi-utilisateurs.
L’épopée du 80286 illustre parfaitement la complexité inhérente au développement des microprocesseurs, où chaque choix architectural résonne sur des décennies d’évolution logicielle. Son empreinte perdure à travers les générations suivantes de processeurs x86, qui conservent ses concepts fondamentaux tout en gommant ses défauts de jeunesse.
SMTP
En août 1982, l’IETF publie la RFC 821. Cette spécification technique, qui pourrait paraître anodine dans le flux constant des documents normatifs, va transformer la communication électronique mondiale. Elle donne naissance au Simple Mail Transfer Protocol, l’architecture invisible qui transporte aujourd’hui des milliards de messages quotidiens.
L’idée paraît simple : créer un langage commun entre machines pour échanger des courriers électroniques. Avant SMTP, chaque système de messagerie parlait son propre dialecte. Un message envoyé depuis un serveur UNIX ne pouvait pas atteindre un destinataire sur une machine Windows. L’interconnexion des réseaux informatiques exigeait un esperanto numérique.
La RFC 821 établit les règles du jeu. Un client SMTP entre en conversation avec un serveur distant, s’identifie, précise l’expéditeur et les destinataires, puis transmet le contenu. Chaque étape génère des codes de réponse numériques standardisés. Cette chorégraphie technique, répétée des millions de fois chaque seconde à travers la planète, orchestre l’échange mondial des messages.
Le protocole traverse les années 1980 et 1990 sans modification majeure. Sa robustesse impressionne car pendant près de vingt ans, la même spécification technique supporte l’explosion d’Internet. Mais cette longévité révèle aussi ses failles. Les pirates découvrent comment exploiter les relais ouverts pour inonder le réseau de courriers indésirables. Le spam naît et prolifère.
En avril 2001 arrive la RFC 2821. L’IETF introduit ESMTP (Extended SMTP), une version enrichie du protocole original. Les nouveautés changent la donne : notifications de réception automatiques, messages d’erreur détaillés, support de caractères non standard dans les en-têtes. Surtout, ESMTP autorise le chiffrement des communications entre serveurs. La sécurité entre enfin dans l’équation.
Cette évolution préserve cependant un principe cardinal : la rétrocompatibilité. Tous les serveurs ESMTP acceptent les connexions SMTP classiques. Cette stratégie assure une transition progressive, évitant le chaos d’une rupture brutale avec l’existant.
La RFC 5321, publiée en octobre 2008, consolide ces acquis. Elle affine les règles d’utilisation du TLS pour sécuriser les échanges et clarifie certains aspects techniques ambigus des versions précédentes. Mais le protocole affronte désormais des défis autrement complexes que ses spécifications originales.
Le spam transforme Internet en champ de bataille. Des automates malveillants testent systématiquement des combinaisons d’adresses pour collecter des cibles valides. Les attaques de type « Directory Harvest Attack » automatisent cette prospection. Les logiciels malveillants se propagent via les pièces jointes. Les techniques de « spoofing » permettent de falsifier l’origine des messages, semant la confusion sur l’identité réelle des expéditeurs.
Face à cette escalade, l’écosystème technique réagit. Avec le framework SPF, les domaines déclarent officiellement quels serveurs peuvent envoyer des e-mails en leur nom. DKIM ajoute des signatures cryptographiques aux messages pour authentifier leur origine. Les filtres anti-spam analysent le contenu, consultent des listes noires, appliquent des heuristiques sophistiquées pour séparer le bon grain de l’ivraie.
Pourtant, le protocole SMTP porte en lui certaines vulnérabilités structurelles. Il ne vérifie pas nativement si l’adresse de l’expéditeur correspond à son domaine déclaré. Les notifications automatiques peuvent confirmer l’existence d’adresses e-mail aux spammeurs. Conçu initialement pour enrichir les messages avec différents types de contenu, le format MIME sert aussi à dissimuler des contenus malveillants. Une nouvelle technologie à double usage.
Malgré ces faiblesses, SMTP domine toujours la messagerie électronique mondiale. Sa pérennité tient d’abord à sa simplicité conceptuelle : les développeurs comprennent très vite son fonctionnement. Ensuite, sa flexibilité : le protocole accepte des extensions sans rompre avec les implémentations existantes. Enfin, l’inertie de l’immense base installée de serveurs et clients qui l’utilisent.
Cette histoire technique révèle une vérité plus large sur l’évolution des standards informatiques. Un protocole survit rarement par ses qualités intrinsèques seules. Il doit s’adapter aux nouveaux usages tout en intégrant les contraintes de sécurité émergentes et en préservant la compatibilité avec son écosystème. SMTP illustre cet équilibre délicat entre innovation et continuité.
Les préoccupations actuelles portent sur le chiffrement systématique des communications, l’authentification renforcée des expéditeurs, l’adaptation à la messagerie mobile. Le protocole continue d’évoluer, quarante ans après sa naissance. Cette longévité exceptionnelle dans l’univers informatique témoigne de sa conception initiale robuste et de sa capacité d’adaptation continue.
L’architecture complexe qui entoure désormais SMTP – filtres anti-spam, systèmes d’authentification, protocoles de sécurité – forme un écosystème technique sophistiqué. Cette complexité croissante contraste avec la simplicité originelle du protocole.
Commodore 64
En 1982, Jack Tramiel lance un pari audacieux avec le Commodore 64. Connu pour sa philosophie « les ordinateurs pour les masses, pas les classes », l’homme d’affaires fixe le prix à 595 dollars : moitié moins que la concurrence. Cette machine tire son nom de ses 64 ko de mémoire vive, une quantité impressionnante qui laisse présager des possibilités inédites.
Le secret de cette performance économique réside dans une décision prise six ans plus tôt. En rachetant MOS Technology en 1976, Commodore s’assure la maîtrise de ses composants : le processeur MOS 6510, dérivé du célèbre 6502, mais aussi deux puces novatrices. Le VIC-II gère l’affichage avec ses 16 couleurs, sa résolution de 320x200 pixels et surtout ses huit sprites, ces petits objets graphiques qui donneront vie aux jeux d’arcade. Quant au SID, ce synthétiseur intégré propose trois voix de synthèse avec un contrôle précis des enveloppes sonores ADSR. Peu d’ordinateurs de l’époque rivalisent avec de telles capacités audio.
L’architecture du C64 révèle une ingéniosité particulière. Le système jongle entre ROM et RAM selon les besoins, libérant de l’espace mémoire quand nécessaire. Le jeu de caractères PETSCII inclut des symboles semi-graphiques qui transforment l’écran en véritable toile de création. Un programmeur débutant a la possibilité de dessiner des interfaces rudimentaires sans connaître une ligne de code machine. Le BASIC intégré et le système KERNAL offrent cette accessibilité recherchée par Tramiel, sans brider les experts qui explorent les recoins les plus techniques de la bête.
L’innovation commerciale accompagne l’innovation technique. Commodore abandonne les magasins spécialisés pour investir les grandes surfaces comme K-Mart. Cette stratégie fracassante porte le C64 dans les foyers américains, puis européens. Les parents découvrent un ordinateur « familial » à prix abordable. Les enfants y trouvent une console de jeu sophistiquée. Cette double nature séduit un public bien plus large que les seuls passionnés d’informatique.
Les chiffres parlent d’eux-mêmes : entre 12 et 17 millions d’exemplaires vendus jusqu’en 1994 font du C64 l’ordinateur personnel le plus diffusé de l’histoire. Cette longévité exceptionnelle de douze ans témoigne d’une conception robuste et évolutive. Quand les PC compatibles dominent le marché professionnel, le petit Commodore continue de régner sur le divertissement domestique.
La bibliothèque logicielle explose littéralement. Des milliers de titres voient le jour, des classiques comme Impossible Mission aux créations amateurs distribuées via les réseaux BBS. Ces bulletins électroniques, ancêtres de nos forums, connectent les utilisateurs par modem. On y échange programmes, astuces et passions communes. Des outils comme le Shoot’em Up Construction Kit démocratisent la création vidéoludique. Plus besoin d’être programmeur pour concevoir son propre jeu de tir !
Le traitement de texte EasyScript ou le tableur CalcResult prouvent que le C64 ne se limite pas au jeu. L’arrivée de GEOS en 1986 bouleverse l’interface utilisateur. Ce système graphique propose fenêtres, icônes et menus déroulants, rivalisant avec le Macintosh d’Apple dans un segment de marché pourtant différent.
Mais c’est la communauté qui forge véritablement l’âme du C64. Des sociétés comme HAL Laboratory repoussent continuellement les limites techniques. La « demoscene » naît de cette émulation créative. Ces programmeurs artistes créent des démonstrations visuelles époustouflantes, mélangeant effets graphiques impossibles, animations fluides et compositions musicales raffinées. Leurs œuvres prouvent qu’une machine modeste est capable de rivaliser avec des systèmes bien plus coûteux, à condition de maîtriser chaque registre, chaque cycle processeur.
Avec cette puce, un véritable instrument de musique électronique, des compositeurs comme Rob Hubbard ou Martin Galway créent un style musical spécifique : la « SID music ». Leurs mélodies marquent durablement les bandes-sons de jeux vidéo et influencent la musique électronique naissante. Qui aurait imaginé qu’un ordinateur domestique engendrerait un nouveau genre musical ?
Sinclair ZX Spectrum
En 1980, l’ordinateur personnel restait un objet mystérieux pour la plupart des gens. Les machines coûtaient une fortune et semblaient réservées aux initiés ou aux entreprises qui avaient les moyens. Clive Sinclair nourrissait une ambition différente. Cet entrepreneur britannique, qui avait déjà marqué son temps avec ses calculatrices de poche, voulait créer un ordinateur que chacun pourrait s’offrir.
En avril 1982, Sinclair Research Ltd lançait le ZX Spectrum, une petite boîte noire qui allait bousculer bien des certitudes. Avec son prix de 125 livres sterling pour 16 Ko de mémoire ou 175 livres pour la version 48 Ko, cette machine cassait littéralement les codes du marché. Le design était d’une simplicité déconcertante : un boîtier compact avec un clavier à membrane qui se branchait directement sur n’importe quel téléviseur familial.
Sous ce capot minimaliste battait le cœur d’un Zilog Z80A à 3,5 MHz. Sinclair avait fait des choix techniques astucieux. La vraie trouvaille résidait dans la gestion des couleurs : huit teintes différentes avec deux niveaux de luminosité chacune, d’où ce nom de « Spectrum » qui sonnait comme une promesse. L’écran affichait 256 × 192 pixels, une définition correcte pour l’époque. Le son se limitait à un simple buzzer, mais qu’importe ! Les programmes se chargeaient depuis des cassettes audio ordinaires, celles-là mêmes qu’on utilisait pour écouter de la musique.
Le système embarquait une version du langage BASIC adaptée par Nine Tiles Ltd, conçue pour tirer parti des capacités graphiques et sonores de la machine. Pas de fioritures dans le système d’exploitation, juste l’essentiel pour que tout fonctionne. Cette approche dépouillée cachait en réalité une intelligence remarquable : rendre l’informatique accessible sans la simplifier à l’excès.
La commercialisation débuta par vente directe depuis les bureaux de Sinclair, avant de gagner les rayons des magasins britanniques. L’accueil dépassait toutes les prévisions. Les gens découvraient qu’ils pouvaient enfin s’offrir un « vrai » ordinateur, pas un gadget. L’engouement fut tel qu’une industrie du jeu vidéo émergea presque instantanément autour de cette petite machine noire.
L’usine Timex de Dundee, en Écosse, tournait à plein régime. La production grimpa jusqu’à 50 000 unités par mois en 1983 pour répondre à une demande qui ne faiblissait pas. Le cap du million d’exemplaires vendus fut franchi dès 1983, puis celui des deux millions l’année suivante. Le Spectrum devenait l’ordinateur personnel le plus vendu d’Europe.
Cette réussite commerciale permit à Sinclair de développer tout un univers autour de sa machine. L’imprimante thermique ZX Printer, les interfaces joystick, et surtout les lecteurs Microdrive lancés en 1983 vinrent compléter l’offre. Si leur prix élevé en limitait l’adoption, ces petites cartouches offraient un stockage plus rapide et fiable que les cassettes.
La presse spécialisée fleurissait avec des magazines entièrement dédiés au Spectrum. Les lecteurs y trouvaient des programmes à recopier ligne par ligne et des cours de programmation accessibles. Une véritable industrie du logiciel se structurait autour d’éditeurs comme Ultimate Play The Game, Ocean, ou Imagine. Les jeux gagnaient en sophistication, exploitant chaque octet de mémoire disponible.
L’éducation nationale britannique ne resta pas indifférente au phénomène. Voyant dans cette machine un moyen de préparer une génération entière aux enjeux de l’informatique, le gouvernement subventionna l’acquisition de Spectrum dans les écoles. Des milliers d’écoliers découvrirent ainsi la programmation sur ces petits claviers à membrane.
Face à une concurrence qui s’intensifiait, Sinclair lança en octobre 1984 le Spectrum+. Même électronique, mais dans un boîtier repensé avec un vrai clavier mécanique inspiré de celui du QL, l’ordinateur haut de gamme de la marque. Vendu 179,95 livres, il séduisait ceux qui avaient été rebutés par le clavier à membrane de l’original. Un kit de mise à niveau était proposé aux propriétaires des premiers modèles.
Le catalogue de logiciels s’étoffait de jour en jour, dépassant les 10 000 titres en 1985. Si les jeux dominaient largement, on trouvait aussi des applications professionnelles et éducatives. La communauté des développeurs partageait ses trouvailles et ses astuces, créant une émulation créative remarquable autour des limites techniques de la machine.
Mais le marché évoluait vite. L’arrivée du Commodore 64 et de l’Amstrad CPC changeait la donne. Ces concurrents proposaient de meilleurs claviers et des capacités multimédia supérieures pour des prix comparables. Les ventes du Spectrum commencèrent à s’essouffler dès 1985.
Les difficultés financières de Sinclair Research s’aggravaient. L’échec cuisant d’autres projets comme l’ordinateur QL ou le véhicule électrique C5 plombaient les comptes. En 1986, Amstrad rachetait la division ordinateurs. La production du Spectrum continua sous ce nouveau propriétaire jusqu’en 1992, totalisant plus de 5 millions d’exemplaires vendus toutes versions confondues.
Le Spectrum a littéralement démocratisé l’informatique personnelle en Europe, la sortant des laboratoires pour l’installer dans les salons familiaux. Des générations entières de programmeurs et de créateurs de jeux vidéo ont fait leurs premières armes sur ce petit clavier à membrane. Sa simplicité encourageait l’expérimentation et la compréhension des mécanismes informatiques.
Une communauté passionnée continue de créer pour le Spectrum. Des émulateurs permettent de revivre l’expérience sur nos machines modernes, tandis que des développeurs s’amusent à repousser les limites de cette architecture vieille de plus de quarante ans. Le Spectrum est devenu le symbole d’une ère bénie où programmer restait à la portée de tous.
Son impact culturel se mesure moins en parts de marché qu’en vocations suscitées. Cette petite boîte noire a démystifié l’informatique en montrant qu’un ordinateur pouvait être simple, abordable et puissant à la fois. La vision de Clive Sinclair, rendre la technologie accessible au plus grand nombre, trouve ici sa plus belle illustration. D’autres ordinateurs lui ont bien succédé, plus puissants et plus confortables, mais aucun n’aura eu un impact social comparable.
Thomson TO/MO
En 1979, dans les ateliers de l’usine Thomson de Moulins, José Henrard manipule des prototypes de cartes électroniques. Cet économiste et sociologue, chercheur au CNRS, découvre l’informatique grâce à l’ordinateur de son frère formateur. Thomson le recrute avec une mission ambitieuse : concevoir un micro-ordinateur familial français. Sa vision dépasse le simple gadget technologique. Il veut créer une machine qui démystifie l’informatique, qui enseigne et qui communique.
Son prototype intègre un microprocesseur 8 bits Motorola 6809, réputé parmi les plus performants de l’époque. Avec ses 8 Ko de mémoire vive extensible à 32 Ko et sa résolution graphique de 320×200 points en 8 couleurs, le TO7 se distingue par son crayon optique livré en standard. Désormais l’utilisateur interagit directement avec l’écran, là où la plupart des ordinateurs se contentent encore d’un simple clavier.
En septembre 1980, Henrard présente son prototype aux dirigeants de Thomson. Leur perplexité est manifeste face à ce qu’ils perçoivent comme un gadget. Le projet obtient néanmoins le feu vert. La production démarre à Moulins. Deux ans plus tard, Thomson, fraîchement nationalisée sous la direction d’Alain Gomez, dévoile les 100 premiers TO7 au SICOB. La presse spécialisée applaudit : qualité graphique remarquable, dimension ludique assumée, Basic Microsoft robuste. Seul bémol : le prix de 7 000 francs.
L’année suivante est stratégique. Thomson crée la SIMIV (Société Internationale de Micro-Informatique et Vidéo) pour orchestrer sa politique micro-informatique. Jean Gerothwohl, ancien publicitaire et condisciple d’Alain Gomez à Sciences Po, prend les rênes. Sa stratégie privilégie l’éducatif et s’inscrit dans la durée. Les ventes décollent grâce à des campagnes marketing audacieuses : publicité grand public, promotions ciblées, dossiers de presse fouillés.
1984 voit naître deux nouveaux modèles. Le MO5, proposé à 2 390 francs, défie les machines britanniques comme l’Oric ou le Spectrum. Le TO7-70, lui, embarque 64 Ko de mémoire vive. Thomson décroche un contrat décisif avec l’UGAP : 40 000 machines sur cinq ans pour l’Éducation nationale. Un succès qui ouvre la voie à une ambition plus vaste.
En janvier 1985, Laurent Fabius, alors Premier ministre, annonce le plan « Informatique Pour Tous ». En voulant initier tous les élèves français à l’informatique et former 110 000 enseignants en une année, l’objectif frôle l’utopie. Thomson est le fournisseur principal avec une commande pharaonique de 108 400 machines destinées à équiper 24 000 établissements scolaires. L’entreprise lilloise Léanord développe le « Nanoréseau », système ingénieux permettant de connecter jusqu’à 31 ordinateurs Thomson à une machine maître plus puissante.
Le TO7-70 révèle ses innovations techniques. Sa mémoire vive atteint 48 Ko, extensible à 64 Ko. Il gère désormais 16 couleurs contre 8 précédemment. Son système d’exploitation propriétaire dialogue avec le Basic et le Logo. L’ordinateur multiplie les interfaces : lecteur de cassettes pour stocker les programmes, port cartouche pour les logiciels, prise Péritel pour la télévision, interface sonore, manettes de jeu.
Une bibliothèque logicielle riche se développe autour de l’éducation, notamment pour l’apprentissage du français et des mathématiques. Les applications bureautiques arrivent avec le tableur Colorcalc et la base de données Pique-Fiche. Colorpeint démocratise le dessin assisté par ordinateur. Les jeux complètent cette offre diversifiée.
Pourtant, Thomson peine face à la concurrence internationale. Les tentatives d’exportation échouent, hormis quelques ventes en Italie, et un contrat avec l’Algérie. En 1986, l’entreprise lance le TO9, modèle plus puissant facturé 8 990 francs, mais la compatibilité avec les modèles antérieurs pose problème. Les utilisateurs s’interrogent, les développeurs hésitent.
L’arrivée des compatibles PC à bas prix, menés par Amstrad, bouleverse brutalement le marché. Thomson abandonne sa stratégie de standard propriétaire en 1986 pour se lancer dans les compatibles PC avec la gamme TO16. Trop tard. Les ventes s’effondrent : 160 000 machines en 1986, 100 000 en 1987, 60 000 en 1988. L’usine de Saint-Pierre-Montlimart ferme ses portes, supprimant 450 emplois.
Le 27 janvier 1989, Thomson annonce l’arrêt définitif de son activité micro-informatique. Cette décision, prise sans concertation avec les utilisateurs ni l’Éducation nationale, clôt près d’une décennie d’aventure industrielle française. Le désengagement définitif intervient le 1er janvier 1990. Thomson préfère se recentrer sur l’électronique grand public et la défense.
L’héritage des ordinateurs Thomson marque l’informatisation de la société française. Le plan « Informatique Pour Tous » a permis la première introduction massive de l’informatique dans les écoles. Leur conception privilégiant l’interaction directe via le crayon optique et la dimension éducative témoigne d’une vision distinctive de l’informatique personnelle. Les choix techniques audacieux, du microprocesseur 6809 au Nanoréseau, illustrent la capacité d’innovation de l’industrie française des années 1980.
L’échec commercial résulte d’un marché national trop étroit, de l’absence de percée internationale, de tarifs élevés et surtout de l’émergence implacable du standard PC. Cette aventure représente néanmoins une étape significative de l’industrie informatique française, mêlant ambition technologique, volonté politique d’indépendance nationale et démocratisation de l’accès à l’informatique.
PostScript
En 1982, deux chercheurs de Xerox PARC décidèrent de claquer la porte. John Warnock et Charles Geschke venaient de passer des mois à développer une technologie d’impression baptisée Interpress, capable de décrire une page à imprimer sans se soucier du type d’imprimante utilisée. Le concept était novateur, mais Xerox ne voyait pas l’intérêt commercial de la chose. Les deux hommes fondèrent alors Adobe Systems et se mirent au travail sur leur propre version : PostScript.
L’époque était pourtant peu propice à ce genre d’aventure. Les années 1970 baignaient dans une conception purement calculatoire de l’informatique. IBM vantait dans ses publicités le coût dérisoire des multiplications sur ses machines. Mais au Xerox PARC, une autre idée germait : l’ordinateur deviendrait un outil de communication. Chacun aurait bientôt sa machine personnelle, reliée à des imprimantes partagées par le réseau.
Le plan initial d’Adobe prévoyait de fabriquer des imprimantes et d’ouvrir des centres de services d’impression. Bill Hambrecht, leur investisseur, les persuada de changer de cap. Pourquoi ne pas plutôt concevoir des systèmes complets associant stations de travail et imprimantes laser ? C’est là que Steve Jobs fit irruption dans l’histoire.
Jobs découvrit PostScript et saisit immédiatement son potentiel. Son Macintosh révolutionnait l’interface utilisateur, mais côté impression c’était dramatique. L’ImageWriter ne dépassait pas 72 points par pouce, une résolution dérisoire pour un usage sérieux. En 1985, Apple sortit la LaserWriter, première imprimante à embarquer PostScript. Cette machine contenait plus de puissance de calcul que le Macintosh : 512 Ko de mémoire morte rien que pour le code PostScript, une véritable fortune.
Le prix annoncé de 7 000 dollars affolait les commerciaux d’Apple. Trois fois le prix du Macintosh pour une imprimante ! Jobs tint bon, et la chute opportune du prix des puces mémoire finit par donner raison à son pari.
PostScript résolvait un problème technique complexe avec une approche d’une simplicité déconcertante. Le langage considérait le texte comme un cas particulier des graphiques. Cette unification permettait de manipuler les caractères avec une liberté totale : on pouvait les tourner, les redimensionner, les déformer à volonté. L’idée séduisait d’autant plus qu’elle s’affranchissait de la résolution du périphérique de sortie. Une description de page pouvait s’imprimer sur différents types d’imprimantes en conservant sa qualité.
Adobe ne se contenta pas de créer un standard d’impression. En 1987, l’entreprise lança Illustrator, un logiciel de dessin vectoriel. L’époque était audacieuse car aucun graphiste n’utilisait d’ordinateur. L’interface d’Illustrator, fondée sur les courbes de Bézier et leurs points de contrôle, naquit d’une anecdote familiale. La femme de Warnock, graphiste de métier, lui demandait régulièrement de programmer à la main en PostScript les logos qu’elle devait réaliser. Cette expérience domestique inspira directement l’interface du logiciel.
L’année suivante, Adobe racheta un petit programme développé par les frères Knoll. Ce logiciel allait devenir Photoshop. Le pari paraissait fou : les disques durs les plus volumineux ne dépassaient pas 20 mégaoctets, juste de quoi stocker une photo haute résolution. Adobe misait sur l’évolution du matériel, et l’histoire lui donna raison.
En 1989, la position dominante de PostScript vacilla. Apple et Microsoft s’associèrent pour créer TrueType, un format concurrent pour les polices de caractères. Adobe riposta en développant à marche forcée ATM (Adobe Type Manager) pour l’affichage des polices à l’écran. La qualité technique de la solution et la confiance qu’inspirait Adobe lui permirent de conserver son avance.
Deux ans plus tard, Warnock eut une illumination. Pourquoi ne pas utiliser PostScript pour créer des documents portables ? Il suffisait de capturer le flux PostScript généré par n’importe quelle application pour obtenir un fichier lisible sur toute plateforme. Cette idée donna naissance à Acrobat et au format PDF. Pour que le succès arrive, il fallut qu’Internet se développe pour que l’échange de documents formatés soit une nécessité évidente.
Le triomphe d’Adobe repose sur des intuitions remarquables. L’entreprise sut identifier des besoins dans le marché. Elle maintint une exigence technique sans faille dans le rendu typographique. Sa stratégie commerciale, qui consistait à licencier PostScript aux fabricants plutôt qu’à produire ses propres machines, s’avéra judicieuse.
Le langage PostScript établit des principes toujours actuels comme la séparation entre la description du document de son rendu, l’affranchissement des contraintes matérielles, le traitement uniforme du texte et des graphiques. Le PDF, héritier direct de PostScript, règne sur l’échange documentaire mondial. Au-delà de ces aspects techniques, PostScript transforma l’ordinateur en outil de création graphique et de communication, l’arrachant définitivement à son statut de simple calculatrice.
SunOS
En 1982, quand Bill Joy quitte les couloirs de l’université de Berkeley. Il emporte avec lui bien plus qu’un diplôme de master en génie électrique. Cet homme a passé des années à triturer BSD, cette version d’UNIX née dans les laboratoires universitaires californiens. Il a créé l’éditeur vi, développé le shell C, et connaît les entrailles du système mieux que quiconque. Il cofonde une nouvelle société : Stanford University Network, raccourci en Sun. Sun Microsystems. Une époque où AT&T commence tout juste à commercialiser UNIX, et où l’informatique vit une période d’effervescence rare.
La première mouture de SunOS voit le jour en 1983. Joy et ses collègues prennent BSD comme base, mais ils ne se contentent pas de reproduire l’existant. Ils y greffent des outils réseau remarquablement efficaces et mettent au point le Network File System, ce NFS qui deviendra plus tard incontournable dans l’industrie. Parallèlement, Sun travaille sur des solutions de fenêtrage pour UNIX. Leur objectif ? Rendre ce système, réputé austère, accessible au plus grand nombre.
Les années 1980 consacrent SunOS comme une référence, surtout dans les domaines techniques pointus. Les bureaux d’études en conception assistée par ordinateur s’arrachent les stations de travail Sun. Ces machines, animées par SunOS, écrasent littéralement les ordinateurs personnels de cette période. Elles offrent un environnement multi-utilisateurs stable, ce qui change tout pour les entreprises habituées aux limites des systèmes mono-utilisateur.
Mais en 1988, un coup de tonnerre secoue le petit monde d’UNIX. AT&T entre au capital de Sun Microsystems. Les concurrents voient rouge, persuadés que Sun va bénéficier d’informations privilégiées sur l’évolution d’UNIX. Ils ripostent en créant l’Open Software Foundation, tandis qu’AT&T, Sun, Data General et Unisys mettent sur pied UNIX International. Ces manœuvres révèlent les tensions qui traversent l’industrie informatique, tiraillée entre standardisation technique et guerre commerciale.
Le paysage change encore en 1993. Sun annonce que SunOS 4.1.4 sera la dernière version construite sur BSD. L’entreprise bascule vers System V Release 4, fruit d’une collaboration avec AT&T qui marie les atouts de System V et de BSD. Cette nouvelle mouture hérite du nom commercial Solaris, SunOS devenant la désignation technique du noyau. Un virage stratégique qui s’inscrit dans une démarche de standardisation plus large du monde UNIX.
L’interface graphique constitue un autre terrain d’innovation et de bataille. Sun développe avec AT&T l’interface OPEN LOOK, dans l’espoir de créer une expérience utilisateur unifiée pour toutes les variantes d’UNIX. Mais cette interface se heurte à OSF/Motif, bâtie sur X Window, ce système développé au MIT qui présente un avantage de taille, à savoir d’exécuter des programmes sur une machine distante en affichant leur sortie localement, quelle que soit l’architecture matérielle ou le système d’exploitation.
La confrontation tourne à l’avantage de Motif. Sun encaisse le coup et s’adapte : à partir de Solaris 2.5.1, l’entreprise propose un package regroupant les deux interfaces sous l’appellation Common Desktop Environment. Cette capacité d’adaptation témoigne de l’agilité de Sun face aux évolutions du marché et à l’émergence de nouveaux standards.
Sur le plan technique, SunOS apporte des innovations qui marquent durablement l’informatique. Le système de fichiers rapide, introduit dans BSD 4.2 grâce au financement de la DARPA, révolutionne les performances et combat la fragmentation des fichiers. Le NFS, conception purement Sun, s’impose comme la solution de référence pour le partage de fichiers en réseau. Ces avancées, couplées à l’intégration poussée avec le matériel Sun, expliquent le succès commercial du système.
L’histoire de SunOS reflète celle de l’informatique dans son ensemble. Né dans l’univers universitaire comme une variante de BSD, héritier de cette tradition de recherche qui caractérise UNIX, il évolue vers une solution commerciale complète. Il intègre les standards qui émergent sans renier ses spécificités techniques. Cette métamorphose accompagne celle de Sun Microsystems, qui passe du statut de start-up audacieuse à celui de poids lourd de l’industrie.
Quand SunOS cède la place à Solaris, une page se tourne, mais l’héritage demeure. Les innovations qu’il a portées, notamment dans le réseau et les systèmes de fichiers distribués, continuent d’influencer le développement des systèmes d’exploitation modernes. Son parcours illustre comment les choix techniques, les stratégies commerciales et les standards industriels s’entremêlent pour façonner l’évolution technologique.
SunOS a contribué à établir UNIX comme une plateforme crédible pour les applications professionnelles, particulièrement dans les secteurs techniques et scientifiques. Son succès dans les universités et centres de recherche a formé toute une génération d’informaticiens aux concepts UNIX.
Agat
En 1980, tandis que l’Apple II connaît un succès retentissant dans les écoles américaines, l’Union soviétique se lance dans une aventure technologique ambitieuse mais semée d’embûches. Les dirigeants du Kremlin ont pris conscience d’un retard inquiétant : leurs enfants grandissent sans jamais toucher un clavier d’ordinateur. Face à cette réalité, ils décident de créer l’Agat, copie presque conforme de la machine de Steve Wozniak.
L’histoire de l’Agat commence par un constat douloureux pour les responsables soviétiques. Dans une société qui se voulait à la pointe du progrès scientifique, l’informatique personnelle reste un terrain largement inexploré. Le ministère de l’Éducation comprend qu’il faut agir vite et former une génération d’utilisateurs d’ordinateurs prioritairement. Plutôt que de partir de zéro, les ingénieurs soviétiques font le choix pragmatique de reproduire ce qui fonctionne ailleurs.
Cette décision révèle une stratégie plus large pratiquée par l’URSS depuis des décennies. Si cette approche pose des questions sur l’autonomie technologique du pays, copier les innovations occidentales fait gagner du temps sur la recherche. L’Agat s’inscrit dans cette logique de rattrapage accéléré, avec tout ce que cela suppose.
La production démarre donc dans des usines qui découvrent les subtilités de l’électronique grand public. Les premières machines sortent des chaînes d’assemblage avec un design qui rappelle furieusement l’Apple II, mais les similitudes s’arrêtent souvent à l’apparence. Le cœur de la machine bat au rythme d’un processeur K588, version soviétique du célèbre 6502. La mémoire vive oscille entre 16 et 32 kilo-octets selon les modèles, des chiffres respectables pour l’époque.
Sorti en 1983, les problèmes s’accumulent dès les premiers mois. Les composants électroniques produits localement ne tiennent pas leurs promesses de fiabilité. Les taux de panne grimpent, transformant chaque livraison d’ordinateurs en loterie technologique. Les écoles qui reçoivent ces machines découvrent qu’une partie d’entre elles ne fonctionnent tout simplement pas, ou tombent en panne après quelques semaines d’utilisation.
Le défi logiciel s’avère encore plus redoutable. Reproduire le matériel est possible avec de bons ingénieurs et de la persévérance, mais créer un écosystème logiciel complet demande des ressources et une expertise qui font défaut. Les programmes conçus pour l’Apple II refusent obstinément de tourner correctement sur l’Agat. Chaque adaptation nécessite un travail considérable, ralentissant d’autant le développement d’une bibliothèque logicielle digne de ce nom.
Les chiffres de production parlent d’eux-mêmes. En trois ou quatre ans, à peine 6 000 unités sortent des usines soviétiques. Pour un pays qui compte des dizaines de milliers d’écoles, ces volumes restent dérisoires. L’objectif d’informatiser massivement l’éducation se transforme en vœu pieux. Seuls quelques établissements pilotes bénéficient de ces machines rares, créant une inégalité criante entre les élèves soviétiques.
Cette pénurie trouve ses racines dans les limites structurelles de l’industrie soviétique. La planification centralisée, si efficace pour produire de l’acier ou des tracteurs, peine à s’adapter aux exigences de l’électronique de précision. Les délais de livraison s’étirent, les spécifications changent en cours de route, et la coordination entre les différents fournisseurs de composants tourne au cauchemar logistique.
L’isolement technologique aggrave la situation. Les embargos occidentaux sur les technologies sensibles privent l’URSS de composants avancés et de machines-outils de précision. Les ingénieurs soviétiques doivent réinventer des solutions éprouvées ailleurs, perdant un temps précieux dans une course où chaque mois compte.
L’État soviétique nourrit des sentiments ambigus envers l’informatisation qu’il prône officiellement. D’un côté, les dirigeants comprennent l’enjeu stratégique de ces technologies. De l’autre, ils redoutent la circulation incontrôlée d’informations que pourrait favoriser la démocratisation des ordinateurs. Cette méfiance transparaît dans les restrictions d’usage imposées aux Agat : pas question de les laisser aux mains d’utilisateurs non encadrés.
Les responsables éducatifs découvrent aussi que posséder des ordinateurs ne suffit pas. Former les enseignants, créer des programmes pédagogiques adaptés, maintenir le parc informatique : autant de questions annexes qui n’avaient pas été anticipés. Beaucoup d’Agat finissent dans des placards faute de personnel compétent pour les utiliser.
Vers le milieu des années 1980, l’enthousiasme initial cède la place au réalisme. Les responsables soviétiques commencent à regarder du côté des clones d’IBM PC, plus faciles à produire et bénéficiant d’un écosystème logiciel plus riche. L’Agat, qui devait symboliser l’indépendance technologique soviétique, symbolise progressivement l’échec.
La perestroïka accélère cette remise en cause. L’ouverture progressive aux technologies occidentales rend caduc le projet d’autarcie informatique. Pourquoi s’obstiner à réinventer la roue quand on peut acheter ou copier plus efficacement ce qui existe ? Cette question, longtemps occultée par l’idéologie, refait surface avec force.
L’abandon de l’Agat marque la fin d’une illusion. L’URSS découvre que rattraper son retard technologique demande plus que de la volonté politique et des investissements massifs. Les écosystèmes technologiques modernes reposent sur des réseaux complexes d’innovations, de compétences et de savoir-faire qui ne se décrètent pas depuis Moscou.
Cette expérience laisse des traces dans le paysage technologique post-soviétique. Le retard accumulé dans les années 1980 pèse encore aujourd’hui sur les pays de l’ex-URSS. La Russie est largement tributaire des technologies informatiques occidentales, situation qui trouve ses origines dans l’échec de projets comme l’Agat.
Au-delà de ses aspects purement techniques, l’aventure de l’Agat raconte l’histoire d’un système confronté à ses propres contradictions. L’URSS voulait moderniser son éducation sans perdre le contrôle de l’information, innover sans remettre en cause ses structures rigides, rattraper l’Occident sans s’inspirer de ses méthodes. Ces tensions, longtemps masquées par les succès spatiaux et militaires, explosent au grand jour avec l’émergence de l’informatique personnelle.
L’Agat témoigne d’une époque où l’innovation technologique est un enjeu géopolitique majeur. Son échec n’est que le début des difficultés plus larges que rencontrera l’URSS face au numérique. Dans cette course technologique, les règles du jeu ont changé : la créativité individuelle, la flexibilité organisationnelle et la liberté d’information prennent le pas sur la planification centralisée et le secret d’État.
L’histoire de cet ordinateur soviétique nous rappelle que les technologies ne se développent jamais dans le vide. L’Agat, dans ses réussites comme dans ses échecs, est un miroir d’une URSS en mutation, tiraillée entre ses ambitions de puissance et les limites de son modèle politique et économique.
Apple Lisa
Dans les couloirs d’Apple, fin 1979, l’effervescence est palpable. Une délégation vient de rentrer du Xerox PARC à Palo Alto, et les visages trahissent une excitation contenue. Ce qu’ils ont vu là-bas va bouleverser un projet qui semblait pourtant bien engagé. Le Lisa, dont le développement avait débuté l’année précédente comme un simple ordinateur professionnel doté d’un processeur sur mesure, va subir une métamorphose radicale.
Larry Tesler leur avait montré Smalltalk. Cette interface graphique, avec ses fenêtres qui se chevauchent et sa souris pour naviguer, représentait tout ce qu’Apple cherchait sans le savoir. Tesler, séduit par la vivacité d’esprit des visiteurs, les rejoindra en juillet 1980. Du projet initial, il ne restera que le nom de code, quelques composants et une poignée d’ingénieurs. Tout le reste sera repensé.
Apple mise gros sur cette aventure. Cinquante millions de dollars disparaissent dans les méandres du développement, l’équivalent de 200 années de travail humain. L’équipe gonfle jusqu’à atteindre 300 personnes, dont une centaine se consacrent au cœur du projet : faire dialoguer le matériel et le logiciel dans une harmonie parfaite. Le processeur maison cède sa place au Motorola 68000, plus adapté aux exigences du multitâche et des graphiques.
Les ingénieurs d’Apple inventent ce qui deviendra notre quotidien informatique. La barre de menus apparaît pour la première fois, accompagnée d’une souris à un seul bouton. Le concept de presse-papiers naît dans ces laboratoires, tout comme cette fameuse corbeille qui avalera nos fichiers indésirables. Certes, le Xerox Star utilisait déjà des icônes, mais le Lisa va plus loin en permettant de les saisir à la souris, les déplacer, les ouvrir d’un double-clic. Les fenêtres se superposent naturellement, créant cet effet de bureau électronique.
L’obsession du détail pousse l’équipe vers des sommets de perfectionnisme. Des utilisateurs novices défilent dans les laboratoires pour tester chaque élément d’interface. Les débats sur la terminologie s’éternisent : comment nommer tel bouton, telle fonction ? Les traducteurs passent des mois à chercher les équivalents dans d’autres langues, conscients que chaque mot compte dans l’expérience utilisateur.
Sept applications accompagnent le système d’exploitation : LisaWrite pour le texte, LisaDraw pour le dessin, LisaCalc pour les tableaux ordonnés. LisaGraph traduit les données en courbes parlantes, LisaProject orchestre les projets complexes, LisaList organise l’information en bases structurées, et LisaTerminal ouvre les portes du monde extérieur. Toutes partagent une philosophie commune : la cohérence prime sur l’originalité.
L’écran de 12 pouces affiche ses pixels noir et blanc avec une précision inédite. Le processeur Motorola 68000 pulse à travers 1 Mo de mémoire, extensible au double. Les lecteurs « Twiggy », baptisés d’après le mannequin longiligne de l’époque, se révèlent capricieux. Sony les remplacera par ses lecteurs 3,5 pouces, plus fiables. Le disque dur ProFile de 5 Mo complète l’ensemble, un stockage pharaonique.
Le système d’exploitation multitâche fait figure de prouesse technique. La mémoire virtuelle et la protection contre les erreurs témoignent d’une maturité rare dans l’univers des ordinateurs personnels. Bill Atkinson grave son nom dans l’histoire avec QuickDraw, ce moteur graphique capable d’afficher 4 000 caractères et 800 lignes par seconde. Les mécanismes de redondance du système de fichiers promettent de limiter les catastrophes en cas de panne brutale.
Janvier 1983 : Apple dévoile sa création au monde. Le prix : 9 995 dollars. Une somme astronomique qui fait sourciller les entreprises les mieux nanties. Les ventes démarrent correctement, environ 80 000 unités s’écoulent en dix-huit mois. Mais l’enthousiasme retombe vite. Le tarif décourage, les applications tierces se font attendre, et surtout, un petit frère arrive : le Macintosh, plus abordable et plus compact, vole la vedette dès 1984.
Avril 1985 sonne le glas de l’aventure Lisa. La production s’arrête, laissant Apple avec un stock embarrassant. L’ordinateur renaît brièvement sous le nom de Macintosh XL, modifié pour exécuter les applications de son petit frère grâce au programme MacWorks. Sun Remarketing rachète les invendus et prolonge artificiellement la carrière de la machine. Quant aux derniers exemplaires, ils finissent dans une décharge, victimes collatérales d’un procès d’actionnaires.
Pourtant, le Lisa a semé des graines qui germeront partout. Son ADN se retrouve dans le Macintosh, puis dans Windows, GEM ou Framework. Les menus déroulants, les boîtes de dialogue, le glisser-déposer deviennent des évidences. QuickDraw migre intact sur le Macintosh, MacProject remplace LisaProject, LisaDraw se métamorphose en MacDraw. Le gestionnaire de bureau inspire le Finder. Le Pascal Lisa continue sa carrière comme langage de référence.
Au-delà des aspects purement techniques, le Lisa redéfinit notre rapport à l’ordinateur. Il prouve qu’une machine complexe peut rester accessible, que la puissance n’exclut pas la simplicité. L’informatique sort de ses cercles d’initiés pour s’adresser au plus grand nombre. Les principes qu’il établit – manipulation directe, cohérence visuelle, réaction immédiate – traversent les décennies sans prendre une ride. Mais l’innovation ne suffit pas : encore faut-il trouver le bon moment, le bon prix, le bon public. Le Lisa échoue commercialement mais triomphe conceptuellement.
Coleco Adam
Coleco Industries décide de quitter l’univers familier des consoles de jeux vidéo en 1983 pour tenter l’aventure de l’ordinateur personnel. Cette société américaine, qui avait connu le succès avec sa ColecoVision, lance l’ADAM, une machine qui se voulait révolutionnaire dans sa conception.
L’idée de départ avait de quoi séduire : pourquoi obliger les familles à acheter séparément un ordinateur, une imprimante, un clavier et des supports de stockage quand on peut tout intégrer dans un seul produit ? L’ADAM arrivait donc sur le marché avec un package complet à 750 dollars. Dans la boîte, l’acheteur trouvait l’unité centrale équipée de 80 Ko de mémoire vive (que l’on pouvait porter à 144 Ko), un clavier détachable de 75 touches au toucher professionnel, une imprimante à marguerite capable de produire du courrier de qualité, et deux manettes de jeu pour ne pas oublier les origines ludiques de la marque.
Le système de stockage constituait l’une des originalités les plus marquantes de la machine. Coleco avait développé un format propriétaire baptisé « digital data pack », sorte de grosse cassette magnétique haute densité capable de stocker jusqu’à 500 Ko de données. Ce format promettait des capacités de stockage supérieures aux disquettes 5,25 pouces de l’époque, mais cette promesse allait se transformer en cauchemar.
D’un point de vue technique, l’ADAM adoptait une architecture pour le moins originale. Plutôt que de concentrer toute l’intelligence dans l’unité centrale, Coleco avait distribué plusieurs microprocesseurs à travers le système. L’ordinateur en contenait deux, le clavier disposait du sien, et l’imprimante avait également son propre cerveau électronique. Cette approche réseau assez visionnaire devait théoriquement permettre des opérations multitâches qu’aucun autre ordinateur familial ne proposait alors.
SmartWriter, le logiciel phare de l’ADAM, était directement gravé dans la mémoire morte de la machine. Ce traitement de texte intégré représentait un avantage concurrentiel indéniable : là où les propriétaires d’Apple II ou de Commodore 64 devaient débourser des centaines de dollars supplémentaires pour WordStar ou d’autres logiciels similaires, l’ADAM offrait cette fonctionnalité d’emblée. SmartBASIC complétait l’offre logicielle de base, avec une compatibilité annoncée avec l’AppleSoft BASIC d’Apple. Coleco promettait une future prise en charge du système d’exploitation CP/M, ce sésame vers le monde professionnel.
Le catalogue logiciel de l’ADAM témoignait des ambitions éducatives de Coleco. SmartLOGO, développé en collaboration avec Seymour Papert du MIT, proposait une initiation à la programmation pour les plus jeunes. Des jeux sophistiqués comme Buck Rogers Planet of Zoom côtoyaient des utilitaires de gestion personnelle. La rétrocompatibilité avec les cartouches ColecoVision ajoutait une dimension ludique bienvenue à cet ensemble.
Malheureusement, la réalité du terrain allait doucher l’enthousiasme initial. Dès les premiers mois de commercialisation, les retours des utilisateurs se multipliaient pour signaler des dysfonctionnements répétés. L’imprimante, pourtant présentée comme un atout majeur, tombait en panne régulièrement. Les lecteurs de bandes magnétiques se révélaient capricieux, et la documentation technique fournie était largement insuffisante pour comprendre le fonctionnement de cette machine complexe.
Le système de stockage sur bande cristallisait à lui seul tous les problèmes de conception de l’ADAM. Les utilisateurs découvrirent à leurs dépens qu’il fallait impérativement retirer les cassettes avant d’allumer ou d’éteindre la machine, sous peine de voir leurs données définitivement corrompues. Cette contrainte, jamais clairement expliquée dans le manuel, provoqua la perte d’innombrables heures de travail et alimenta la mauvaise réputation de la machine.
L’architecture réseau, si séduisante sur le papier, engendrait des limitations inattendues. L’imprimante servait d’alimentation générale pour tout le système, ce qui rendait impossible son remplacement par un modèle plus rapide ou plus fiable. Le multitâche tant vanté se limitait en réalité à bien peu de chose : impossible de faire autre chose pendant qu’une impression était en cours.
La politique de Coleco envers les développeurs tiers ne favorisait pas l’émergence d’un écosystème logiciel riche. Contrairement à Apple qui encourageait activement les développeurs externes, Coleco imposait des accords de licence contraignants et ne fournissait que peu d’informations techniques sur son système. Cette fermeture limitait d’autant les possibilités d’enrichir le catalogue de programmes disponibles.
Les tests de performance menés par le magazine BYTE en 1984 confirmaient les impressions mitigées des premiers utilisateurs. Si SmartBASIC se montrait effectivement plus véloce que l’AppleSoft BASIC d’Apple dans certains calculs, les opérations de lecture et d’écriture sur bande s’avéraient dramatiquement lentes comparées aux lecteurs de disquettes. L’absence d’un système de sauvegarde automatique et la difficulté à copier des données d’un support à l’autre compliquaient singulièrement l’usage quotidien de la machine.
Face à ce constat d’échec, Coleco tenta de rattraper le coup. Un lecteur de disquettes 5,25 pouces fut annoncé, ainsi qu’un modem 300/1200 bauds et une extension mémoire de 64 Ko. La société promit une refonte complète du manuel technique et des corrections pour les bogues logiciels les plus gênants. Mais ces améliorations tardives ne purent sauver une machine dont la réputation était déjà durablement ternie.
L’ADAM disparut des rayons en 1985, après moins de deux années d’une existence commerciale chaotique. Les pertes financières considérables liées à ce projet précipitèrent Coleco vers des difficultés qui aboutiront à sa faillite en 1988. Cette histoire illustre cruellement les écueils qui guettaient les nouveaux entrants sur le marché de l’informatique personnelle des années 1980. La complexité technique, l’exigence de fiabilité absolue et la nécessité d’un écosystème logiciel solide constituaient des barrières à l’entrée.
Avec le recul, l’ADAM avait pourtant introduit des concepts avant-gardistes dans l’univers de l’informatique familiale. L’intégration d’un traitement de texte directement en mémoire morte préfigurait nos systèmes d’exploitation modernes avec leurs applications préinstallées. Le concept du package « tout-en-un » influencerait durablement la conception des ordinateurs personnels.
L’aventure Coleco Adam est un témoignage précieux sur l’importance de la qualité d’exécution dans le succès d’une innovation technologique. Elle rappelle aussi combien une communauté de développeurs active s’avère déterminante pour établir une plateforme informatique viable. Ces enseignements gardent toute leur pertinence pour comprendre les dynamiques actuelles du marché technologique.
Compaq Portable
Tandis qu’IBM domine le marché avec son PC, une jeune entreprise texane, Compaq Computer Corporation, s’apprête à bousculer les règles du jeu en 1983. Son pari : créer le premier ordinateur portable entièrement compatible avec l’architecture IBM PC.
L’idée n’est pas complètement nouvelle. Deux ans plus tôt, Adam Osborne avait déjà commercialisé son Osborne 1, présenté comme le premier ordinateur portable à connaître un véritable succès commercial. Mais la machine d’Osborne souffrait d’un défaut rédhibitoire : elle ne pouvait faire tourner les logiciels conçus pour les IBM PC, qui s’imposaient comme la référence du marché. C’est exactement ce problème que les ingénieurs de Compaq vont résoudre.
Le Compaq Portable se présente sous l’aspect d’une mallette de 12 kg, équipée d’une poignée robuste. Son design annonce ce qu’on baptisera bientôt les « luggables », ces machines que l’on traîne plus qu’on ne les porte. L’écran CRT de 9 pouces trône au centre du boîtier, le clavier se détache pour libérer l’accès aux lecteurs de disquettes 5,25 pouces. Une « brique d’alimentation » externe complète l’ensemble, ajoutant son poids considérable à celui de la machine.
Sous le capot, on trouve un processeur Intel 8088, le même que celui qui équipe l’IBM PC. Cette compatibilité technique totale permet pour la première fois à un ordinateur portable de faire tourner exactement les mêmes programmes qu’une machine de bureau. L’écran monochrome, la mémoire vive extensible et le lecteur de disquettes complètent un ensemble vendu 3 590 dollars, un prix qui le positionne clairement sur le segment haut de gamme.
Le succès ne se fait pas attendre. Les professionnels découvrent enfin une machine qui leur donne la liberté de travailler en déplacement sans renoncer à leurs habitudes logicielles. La qualité de fabrication et la fiabilité du système séduisent une clientèle exigeante, habituée aux standards IBM. Compaq mise aussi sur un réseau de distribution soigneusement sélectionné et un support technique irréprochable.
En 1986, la firme texane frappe un grand coup avec le Portable 386. Cette nouvelle génération intègre le processeur Intel 80386 cadencé à 20 MHz, une première mondiale qui propulse Compaq au rang de pionnier technologique. Les performances s’envolent : 25% plus rapide que les machines à 16 MHz, et jusqu’à 3,5 fois plus véloce que les ordinateurs basés sur le 80286 à 8 MHz.
La machine se décline en deux versions : le modèle 40 avec son disque dur de 40 mégaoctets, et le modèle 100 qui double la capacité de stockage. L’innovation la plus spectaculaire réside dans l’adoption d’un écran plasma à double mode, avec une résolution de 640 x 400 pixels inédite sur ce type de machine. Un mégaoctet de mémoire vive équipe la configuration de base, extensible jusqu’à 10 mégaoctets.
L’ergonomie fait l’objet de tous les soins. Le clavier détachable s’enrichit de 12 touches de fonction programmables, la ventilation redouble d’efficacité, et des supports antichocs protègent les disques durs. Les dimensions se réduisent : 24,8 x 40,6 x 19,8 centimètres pour un poids ramené à 9 kg, soit une baisse sensible par rapport au modèle initial.
La connectivité s’étoffe avec des ports série et parallèle, une sortie RGBI pour moniteur externe, et la possibilité d’installer un modem interne 1 200 ou 2 400 bauds. Un module d’extension optionnel ajoute deux slots 8/16 bits. Pour la sauvegarde, une unité de bande magnétique de 40 mégaoctets complète l’offre d’accessoires.
Ces succès propulsent Compaq dans les sommets de l’industrie américaine. Entre 1983 et 1986, l’entreprise bat tous les records en devenant la société ayant atteint le plus rapidement le classement Fortune 500. Cette ascension fulgurante valide l’existence d’un marché pour des ordinateurs portables professionnels haut de gamme et incite la concurrence à se lancer dans la course.
Le concept du « luggable » évolue naturellement vers plus de légèreté. En 1988, Compaq présente le SLT, son premier portable adoptant le format « clamshell » en forme de coquillage qui caractérise nos ordinateurs portables modernes. Avec ses 6 kg, le SLT marque une étape vers la véritable mobilité, même si les standards actuels restent encore lointains.
L’aventure du Compaq Portable révèle l’importance de la compatibilité dans l’économie informatique. En proposant des machines 100% compatibles avec le standard IBM PC, Compaq établit un modèle économique que toute l’industrie va adopter. Cette stratégie accélère la standardisation du marché des PC et fait émerger une véritable industrie de l’informatique personnelle.
Le Compaq Portable égale les performances d’une machine de bureau, une véritable révélation à l’époque. Sur le plan commercial, elle valide le modèle de la distribution spécialisée et établit des standards de qualité qui influencent durablement le secteur.
Cette période d’innovation intense voit les constructeurs chercher l’équilibre entre puissance, autonomie et portabilité. Les compromis du Compaq Portable, avec sa « brique » d’alimentation et ses 12 kg, peuvent paraître archaïques selon nos critères actuels. Pourtant, cette machine trace le chemin vers l’informatique mobile moderne et prouve qu’une innovation technologique réussie résulte toujours de la rencontre entre des avancées techniques, une vision juste du marché et une stratégie commerciale cohérente.
Grâce à cette combinaison gagnante, Compaq s’impose comme un acteur majeur de l’industrie informatique, position qu’elle conservera jusqu’à son absorption par Hewlett-Packard en 2002. L’histoire du Compaq Portable est celle d’une entreprise qui a su transformer une contrainte technique – la compatibilité IBM – en avantage concurrentiel décisif.
GNU Project
L’histoire commence en 1983 dans les couloirs du laboratoire d’intelligence artificielle du MIT. Richard Stallman, programmeur chevronné, vit alors une expérience qui va changer sa vie et, par ricochet, l’histoire de l’informatique. Face à une imprimante Xerox défaillante, il se heurte à un refus catégorique : impossible d’accéder au code source pour corriger le problème. Cette frustration cristallise un malaise plus profond : l’industrie logicielle bascule vers un modèle fermé qui rompt avec la tradition de partage qui caractérisait jusque-là les laboratoires universitaires.
Cette prise de conscience pousse Stallman à annoncer, cette année 1983, le lancement d’un projet d’une ambition rare : GNU. L’acronyme récursif « GNU’s Not UNIX » cache un objectif révélateur : construire un système d’exploitation complet, compatible UNIX certes, mais libéré de toute contrainte propriétaire. Chaque utilisateur devra pouvoir étudier, modifier et partager les programmes qu’il utilise au quotidien.
Pour donner corps à cette vision, Stallman franchit un cap décisif en 1984 : il démissionne du MIT. Cette rupture lui garantit la propriété intellectuelle de son travail futur. Il s’attaque d’abord à un éditeur de texte, GNU Emacs, qui rencontre un succès inattendu dans la communauté informatique. Le momentum créé encourage la suite : GCC, le compilateur, voit le jour en 1987, suivi du débogueur GDB et d’une panoplie d’utilitaires système.
En 1985, un virage institutionnel s’opère avec la création de la Free Software Foundation. Cette organisation dépasse le simple soutien technique au projet GNU : elle forge les bases philosophiques et juridiques d’un mouvement naissant. Stallman y définit quatre libertés qu’il juge inaliénables : utiliser, étudier, modifier et redistribuer les logiciels. Ces principes trouvent leur traduction juridique en 1989 avec la General Public License, une licence qui retourne astucieusement le droit d’auteur contre lui-même pour garantir la pérennité des libertés accordées.
Le développement s’organise selon un modèle inédit pour l’époque. Petites équipes de volontaires dispersées géographiquement, coordination par listes de diffusion, échanges de fichiers par FTP : Internet rend possible cette collaboration décentralisée qui n’est que que le début de nos méthodes modernes du développement logiciel. Chaque équipe travaille sur des composants spécifiques selon un plan méticuleux, une approche qui contraste avec l’improvisation souvent reprochée aux projets communautaires.
Vers 1990, l’édifice GNU approche de sa complétude. Compilateur, débogueur, éditeurs, utilitaires système : presque tous les éléments d’un système d’exploitation sont en place. Il manque pourtant la pièce maîtresse : le nœud du système, son kernel. HURD, le noyau GNU, s’enlise dans une complexité technique inattendue. C’est là qu’intervient un jeune étudiant finlandais, Linus Torvalds, qui lance en 1991 le développement de Linux. La rencontre entre les outils GNU et ce nouveau noyau donne naissance à un système complet et libre que Stallman baptise GNU/Linux, soulignant ainsi la contribution de son projet.
La GPL, progressivement un standard de facto, est adoptée par des milliers de développeurs à travers le monde. Des entreprises comme Cygnus Solutions, créée en 1989, prouvent qu’un modèle économique viable peut s’articuler autour du logiciel libre en vendant support et services. La méthodologie collaborative initiée par GNU inspire une génération entière de projets.
Les questions soulevées par Stallman et la FSF alimentent des débats plus larges sur la propriété intellectuelle à l’ère numérique. Les concepts de liberté logicielle essaiment vers d’autres domaines : culture libre, données ouvertes, science ouverte. Cette expansion conceptuelle révèle la portée philosophique d’une initiative née d’une frustration technique.
Les années 1990 et 2000 confrontent le projet GNU à de nouveaux défis. Brevets logiciels, gestion numérique des droits, émergence d’un mouvement « open source » plus pragmatique : autant d’évolutions qui testent la cohérence doctrinale du mouvement. La FSF maintient sa ligne intransigeante sur les questions de liberté, parfois au prix d’une marginalisation relative face à des approches moins radicales.
Pourtant, les faits donnent raison à cette persévérance. GNU/Linux s’impose massivement dans les serveurs web, conquiert les supercalculateurs et, via Android, infiltre des milliards d’appareils mobiles. GCC demeure une référence technique incontournable. Les outils GNU continuent d’équiper la majorité des environnements de développement modernes.
Le projet GNU a démontré au-delà de ses réalisations techniques qu’une initiative portée par des convictions éthiques fortes pouvait transformer durablement tout un secteur industriel. En créant simultanément des outils performants et un cadre juridico-philosophique cohérent, Stallman et ses collaborateurs ont fondé un écosystème alternatif viable.
Cette contribution historique éclaire nos enjeux contemporains. Au moment où la technologie façonne nos sociétés avec une intensité croissante, les questions soulevées par le projet GNU sur la liberté et le contrôle dans le monde numérique résonnent avec une acuité particulière. L’utopie technique de 1983 s’est muée en réalité économique et sociale, prouvant que les idées, même les plus radicales, peuvent transformer le monde quand elles rencontrent les outils techniques appropriés.
DNS
L’histoire du Domain Name System commence par un fichier. Un simple fichier texte baptisé HOSTS.TXT que le SRI Network Information Center distribuait péniblement à travers l’ARPANET du début des années 1980. Cette solution artisanale fonctionnait tant que le réseau se limitait à quelques dizaines de machines, mais l’explosion du nombre d’ordinateurs connectés transforme ce système en cauchemar administratif.
Paul Mockapetris et son équipe de l’USC Information Sciences Institute observent cette dérive avec inquiétude en 1982. Le fichier HOSTS.TXT enfle chaque jour davantage, sa distribution coûte une fortune, et personne n’arrive plus à suivre le rythme des modifications. L’évolution technologique aggrave la situation : là où l’ARPANET initial connectait surtout des systèmes centraux partagés, l’arrivée des stations de travail individuelles multiplie exponentiellement le nombre de machines à référencer. On passe du nombre d’organisations au nombre d’utilisateurs, une perspective vertigineuse pour l’époque.
Face à cette impasse, Mockapetris explore les alternatives existantes. Il étudie IEN116 de DARPA Internet, examine Grapevine de XEROX, mais aucun système ne répond vraiment aux besoins spécifiques d’Internet. L’équipe décide alors de concevoir une architecture entièrement nouvelle, distribuée par nature : le Domain Name System. Les premières spécifications paraissent en 1983 dans les RFC 882 et 883, documents techniques qui vont transformer l’Internet.
L’idée centrale du DNS tient dans sa structure arborescente. Chaque nœud de l’arbre porte une étiquette, et le nom complet d’un ordinateur se construit en remontant de nœud en nœud jusqu’à la racine. Cette hiérarchie naturelle rend élégante la délégation d’autorité car chaque organisation gère sa portion de l’espace des noms sans dépendre d’un organisme central pour les modifications courantes. Les premiers domaines de premier niveau reflètent cette philosophie pragmatique : .edu pour l’éducation, .com pour les entreprises, .fr et .uk pour les pays.
L’architecture technique repose sur deux piliers. D’un côté, les serveurs de noms stockent et distribuent les informations de leur zone de responsabilité. De l’autre, les résolveurs intégrés aux systèmes clients interrogent ces serveurs pour localiser l’information recherchée. Entre les deux, un système de cache sophistiqué mémorise temporairement les réponses selon une durée de vie définie par chaque administrateur. Cette mise en cache constitue le secret de performance du DNS : elle évite de répéter sans cesse les mêmes requêtes vers les serveurs distants.
La transition depuis HOSTS.TXT ne se fait pas du jour au lendemain. L’université de Berkeley prend les devants en 1985, devenant la première organisation à abandonner complètement l’ancien système au profit du DNS. Cette migration pionnière révèle immédiatement les problèmes pratiques : les utilisateurs peinent à s’habituer aux nouvelles formes d’adressage, les applications doivent être reprogrammées pour gérer les échecs temporaires inhérents à tout système distribué.
En 1987, environ 300 domaines ont été délégués par le SRI-NIC. Un an plus tard, ce nombre dépasse déjà 650, dont 400 pour des espaces de noms normaux et 250 pour des espaces d’adresses réseau. Sept serveurs racine assurent la redondance mondiale du système, judicieusement répartis sur les principaux réseaux dorsaux de l’Internet. Cette croissance exponentielle valide les intuitions de Mockapetris : le DNS absorbe sans difficulté une charge que l’ancien système n’aurait jamais pu supporter.
Les années 1990 voient exploser l’utilisation du DNS avec l’arrivée du Web et la démocratisation d’Internet. Le système prouve sa robustesse face à cette montée en charge inattendue. De nouveaux types d’enregistrements s’ajoutent progressivement pour gérer de nouvelles fonctionnalités, comme les enregistrements MX qui révolutionnent le routage du courrier électronique. L’une des forces majeures du protocole réside dans cette capacité d’évolution sans rupture de compatibilité.
Mais le succès attire aussi les convoitises malveillantes. Au début des années 2000, les attaques par empoisonnement de cache (DNS spoofing) se multiplient, les détournements de domaines font la une des journaux spécialisés. La communauté technique répond par la cryptographie avec DNSSEC, un protocole de sécurisation des échanges DNS. Son déploiement démarre symboliquement en 2010 pour la racine du DNS, avant de s’étendre progressivement aux domaines de premier niveau puis aux organisations.
L’internationalisation soulève d’autres enjeux, qu’ils soient techniques ou politiques. Comment permettre aux utilisateurs chinois, arabes ou russes d’utiliser leurs propres caractères dans les noms de domaine ? Les IDN (Internationalized Domain Names) apportent une réponse élégante dans les années 2000, mais leur mise en œuvre nécessite des modifications profondes pour garantir la compatibilité avec les milliards de systèmes existants.
La gouvernance du DNS connaît une évolution majeure en 1998 avec la création de l’ICANN. Cette organisation à but non lucratif prend le relais du gouvernement américain pour coordiner le système mondial des noms de domaine. L’ICANN supervise l’attribution des nouveaux domaines de premier niveau, établit les politiques de nommage, et tente tant bien que mal de concilier les intérêts techniques et commerciaux.
Entre 2012 et 2024, le DNS traverse une nouvelle phase d’expansion. Le programme des nouveaux gTLD de l’ICANN libère des centaines d’extensions inédites : .shop, .paris, .blog et des milliers d’autres. Parallèlement, les préoccupations de confidentialité poussent au développement de DNS-over-HTTPS et DNS-over-TLS. Ces protocoles chiffrent les requêtes DNS, limitant les possibilités d’espionnage et de censure par les intermédiaires.
Quarante ans après sa conception, le DNS continue de fonctionner sur ses principes originaux. Cette longévité exceptionnelle s’explique par les choix architecturaux de Mockapetris : privilégier la simplicité sur la sophistication, la flexibilité sur l’optimisation prématurée. Les mécanismes de mise en cache et la distribution hiérarchique de l’autorité restent pertinents malgré l’évolution technologique. Le DNS illustre comment une infrastructure grandit tout en préservant sa compatibilité avec l’existant.
En 2024, le DNS gère des milliards de noms de domaine et répond à des centaines de milliards de requêtes quotidiennes. Cette infrastructure invisible supporte l’intégralité du trafic Internet mondial. Ses défis actuels concernent la sécurité face aux attaques par déni de service, la confidentialité des requêtes, et la résilience des serveurs racine.
L’aventure du DNS raconte comment une innovation technique peut restructurer l’architecture d’Internet, transformer un simple annuaire en infrastructure critique mondiale. Sa conception modulaire et évolutive est un modèle pour tous les protocoles qui aspirent à la pérennité sur Internet.
C++
Dans les années 1970, Bjarne Stroustrup découvre à Cambridge les joies et les frustrations de Simula. Ce langage lui plaît par sa capacité à structurer le code avec ses classes, mais l’exaspère par sa lenteur d’exécution. Pour sa thèse sur les systèmes distribués, il doit abandonner l’élégance de Simula et se remettre dans BCPL, plus rapide mais moins organisé. Cette contradiction le marque : pourquoi faudrait-il choisir entre performances et clarté du code ?
Quand Stroustrup rejoint les Bell Labs d’AT&T en 1979, il garde cette interrogation en tête. Les projets sur lesquels il travaille – analyse du noyau UNIX, distribution sur réseau – demandent à la fois efficacité et structure. Il se lance le pari audacieux de greffer les classes de Simula sur le langage C. Naît ainsi « C with Classes », un hybride qui conserve la rapidité du C tout en y ajoutant l’organisation orientée objet.
Les premiers pas sont modestes. Stroustrup ajoute les classes, puis les constructeurs et destructeurs pour gérer automatiquement l’initialisation et la destruction des objets. Le contrôle d’accès public-privé apparaît ensuite, suivi des fonctions virtuelles qui autorisent le polymorphisme. Chaque ajout répond à un besoin précis rencontré sur le terrain.
En 1983, Rick Mascitti suggère un nouveau nom : C++. L’opérateur d’incrémentation du C symbolise parfaitement cette évolution du langage. Le nom colle et l’histoire retiendra cette appellation. Deux ans plus tard, en 1985, la première version commerciale sort des Bell Labs, accompagnée du livre fondateur de Stroustrup, The C++ Programming Language. Le compilateur Cfront traduit le code C++ en C, solution élégante pour assurer une portabilité maximale.
Le succès arrive vite. Les programmeurs découvrent qu’ils retrouvent leurs habitudes C tout en accédant aux bénéfices de l’orienté objet. Pas de changement brutal, mais une transition en douceur. Le langage ne ralentit pas l’exécution par rapport au C, ne demande pas d’environnement spécialisé comme Smalltalk. Cette approche pragmatique séduit une communauté grandissante.
Entre 1985 et 1989, C++ s’enrichit. L’héritage multiple fait son apparition en 1989, les templates ouvrent la voie à la programmation générique, la gestion des exceptions apporte plus de robustesse. Chaque fonctionnalité mûrit d’abord dans l’usage avant d’intégrer le langage. Cette prudence forge la réputation de stabilité de C++.
La croissance est impressionnante : de quelques centaines d’utilisateurs en 1985, on passe à 400 000 en 1991. Les domaines d’application se multiplient : systèmes d’exploitation, jeux vidéo, interfaces graphiques, calcul scientifique. Des environnements de développement apparaissent, des bibliothèques spécialisées enrichissent l’écosystème.
En 1989 débute le processus de standardisation sous l’égide de l’ANSI et de l’ISO. Le travail aboutit en 1998 avec la publication du premier standard international (ISO/IEC 14882 :1998). Cette normalisation libère C++ de son créateur et assure sa pérennité au-delà des Bell Labs.
La Standard Template Library mérite une mention particulière. Alexander Stepanov y développe une approche transformatrice : des conteneurs génériques (vector, list, map) et des algorithmes réutilisables qui fonctionnent avec tous ces conteneurs. Cette bibliothèque transforme la manière d’écrire du C++ en privilégiant la réutilisation de code éprouvé.
Le système d’entrées-sorties iostream remplace avantageusement les printf et scanf hérités du C. Plus sûr au niveau des types, plus extensible, il s’intègre naturellement dans la philosophie C++. Ces ajouts à la bibliothèque standard rendent le langage plus riche sans alourdir le cœur du compilateur.
Stroustrup défend des principes constants tout au long de l’évolution : aucune dégradation des performances par rapport au C, compatibilité ascendante préservée, support de styles de programmation variés. C++ accepte la programmation procédurale classique, l’orienté objet avec classes et héritage, la programmation générique avec les templates. Cette flexibilité explique son adoption dans des contextes très divers.
Le C++ popularise l’orienté objet dans des domaines traditionnellement réservés aux langages procéduraux. Java et C# puiseront largement dans ses concepts, y compris s’ils font d’autres choix d’architecture. La programmation générique avec les templates inspire de nombreux langages ultérieurs.
C++ poursuit son évolution à travers les standards successifs. C++11 modernise le langage avec les expressions lambda et les smart pointers. C++14, C++17 et C++20 continuent d’enrichir les possibilités : modules, coroutines, concepts. Le langage s’adapte aux architectures multicœurs, aux besoins du calcul parallèle, aux contraintes de la programmation moderne.
Cette longévité tient à l’approche pragmatique de ses concepteurs. Plutôt que de révolutionner pour révolutionner, ils ont toujours privilégié l’utilité pratique et la préservation de l’existant. C++ est fidèle à ses origines : un outil puissant pour qui veut contrôler finement les ressources sans renoncer à l’expressivité du code. L’histoire de ce langage illustre comment une bonne idée, nourrie par l’expérience du terrain, traverse les décennies en s’adaptant sans perdre son identité.
Objective-C
Brad Cox et Tom Love n’imaginaient sans doute pas que leur décision d’hybrider le langage C avec les concepts de Smalltalk donnerait naissance à l’une des technologies les plus durables de l’informatique moderne. Objective-C, créé en 1983, allait traverser les décennies en s’adaptant en permanence.
Le point de départ était pourtant simple. Dennis Ritchie et Ken Thompson avaient conçu le C dans les Bell Labs à la fin des années 1960 pour développer UNIX. Ce langage procédural offrait un compromis intéressant entre performance et lisibilité, mais ses limites se révélaient dans la construction de systèmes complexes. De l’autre côté, au Xerox PARC, Alan Kay et Dan Ingalls révolutionnaient l’approche de la programmation avec Smalltalk et ses objets qui encapsulaient données et comportements.
Cox et Love ont imaginé marier ces deux mondes. Plutôt que de créer un nouveau langage de toutes pièces, ils ont étendu le C existant en y greffant la programmation orientée objet de Smalltalk. Cette approche pragmatique préservait l’investissement en code C tout en ouvrant de nouvelles possibilités de conception logicielle. La Free Software Foundation a reconnu l’intérêt de cette innovation et l’a intégrée dans sa boîte à outils.
Objective-C devint un langage de niche apprécié des informaticiens curieux. Quand Steve Jobs quitte Apple en 1985 pour lancer NeXT, il mise sur Objective-C pour développer NeXTSTEP. Ce choix technique transforme le destin du langage. NeXT pousse la collaboration jusqu’à travailler avec Sun Microsystems sur OpenStep, une version standardisée de leur système. La Free Software Foundation emboîte le pas avec GNUstep.
Apple, enlisé dans les années 1990, cherche désespérément à moderniser Mac OS. Après plusieurs tentatives ratées, deux options s’offrent à l’entreprise : acquérir Be, Inc. de Jean-Louis Gassée ou racheter NeXT. Le choix de NeXT en 1996 scelle le retour de Jobs et fait d’Objective-C le cœur technique de Mac OS X. Un simple langage expérimental se mue soudain le socle du futur d’Apple.
L’iPhone arrive en 2007. iOS, dérivé de Mac OS X, propulse Objective-C sur des millions d’appareils mobiles. L’iPad trois ans plus tard amplifie encore le phénomène. Les développeurs du monde entier découvrent ce langage hybride pour créer des applications touchant des centaines de millions d’utilisateurs. Cette explosion inattendue révèle la robustesse de l’architecture imaginée par Cox et Love vingt-cinq ans plus tôt.
Face à cette adoption massive, Apple introduit des améliorations substantielles, notamment le comptage automatique des références (ARC) qui simplifie drastiquement la gestion mémoire. Finies les fuites mémoire et les plantages liés aux pointeurs perdus : ARC automatise ces tâches fastidieuses et sources d’erreurs.
La syntaxe d’Objective-C porte les traces de cette histoire mouvementée. Le C traditionnel côtoie les crochets de Smalltalk dans une cohabitation qui surprend au premier regard mais révèle sa cohérence à l’usage. Le système de messages, hérité de Smalltalk, remplace l’appel direct de méthodes par un mécanisme plus flexible où les objets se parlent. Cette approche autorise une liaison dynamique des méthodes et facilite l’extension des systèmes.
Les frameworks accompagnent cette richesse syntaxique. Foundation fournit les briques de base : manipulation de données, collections, opérations sur fichiers. Ces bibliothèques forment un ensemble cohérent qui accélère le développement et standardise les pratiques. Le type id illustre parfaitement la philosophie du langage : il autorise la manipulation générique d’objets tout en préservant la sécurité du typage quand nécessaire.
L’écosystème se développe au-delà des frontières d’Apple. GNUstep maintient la portabilité cross-platform d’Objective-C, démontrant que les concepts dépassent l’implémentation propriétaire. Xcode enrichit l’expérience développeur avec Interface Builder et ses outils visuels. La communauté crée bibliothèques, frameworks et bonnes pratiques qui nourrissent un cercle vertueux.
Swift arrive en 2014 comme le nouveau poulain d’Apple. Cette annonce ne sonne pas le glas d’Objective-C mais témoigne de sa maturité. Apple organise une coexistence progressive plutôt qu’une rupture brutale, reconnaissant implicitement la valeur de son langage historique. Les millions de lignes de code Objective-C continueront de fonctionner pendant des années.
L’Objective-C a démontré qu’étendre un langage existant pouvait réussir là où créer ex nihilo échoue souvent. Son modèle de messages a inspiré de nombreux frameworks orientés objet. Sa capacité à mélanger paradigmes procédural et objet a ouvert des pistes explorées par d’autres langages.
Quarante ans après sa naissance, Objective-C reste une leçon d’ingénierie pragmatique. Cox et Love ont su identifier les forces de deux mondes différents et les fusionner intelligemment. Leur création a survécu aux modes, aux rachats, aux appareils mobiles et continue d’alimenter des applications utilisées quotidiennement par des centaines de millions de personnes. Cette longévité témoigne d’une conception solide qui a su s’adapter sans perdre son identité.
IPX/SPX
Au milieu des années 1980, quand Novell travaillait sur NetWare, ses ingénieurs se trouvaient face à un problème : créer un protocole réseau capable de faire dialoguer des ordinateurs dispersés dans l’entreprise. Ils ne partirent pas de zéro. Le système XNS que Xerox avait mis au point quelques années plus tôt leur servit de modèle. Cette approche pragmatique donna naissance à IPX/SPX, une suite de protocoles qui allait marquer une décennie entière de l’informatique réseau.
L’époque était aux premiers pas de la mise en réseau. Les entreprises découvraient l’intérêt de partager des fichiers et des imprimantes entre plusieurs postes de travail. NetWare proposait une réponse à ces besoins avec son architecture client-serveur, où IPX/SPX jouait le rôle de messager entre les machines. Le protocole s’articulait en deux couches distinctes : IPX pour acheminer les paquets d’un point à l’autre, SPX pour garantir leur bonne réception.
Novell avait trouvé une astuce élégante pour simplifier la configuration réseau. Là où d’autres protocoles nécessitaient de complexes tables de correspondance, IPX utilisait directement l’adresse MAC de la carte réseau comme identifiant de machine. Chaque adresse IPX combinait un numéro de réseau sur 32 bits, défini par l’administrateur, et cette fameuse adresse MAC sur 48 bits. Finalement, il n’y avait plus besoin de protocole supplémentaire pour faire le lien entre l’identité logique et l’identité physique de la machine.
Le routage s’appuyait sur RIP (Routing Information Protocol), mais pas le RIP d’IP. Les deux protocoles partageaient le nom sans être compatibles. Toutes les minutes, les routeurs IPX s’échangeaient leurs tables de routage en utilisant une métrique particulière appelée « tick ». Un tick correspondait à un dix-huitième de seconde, donnant une estimation du délai sur chaque liaison. Si deux routes affichaient un nombre de ticks identique, c’est le nombre de sauts qui tranchait.
SAP (Session Announcement Protocol) apportait une dimension supplémentaire à l’écosystème IPX/SPX. Ce protocole d’annonce de services transformait le réseau en un vaste tableau d’affichage où chaque serveur proclamait ses talents : partage de fichiers, impression, messagerie. Comme pour RIP, les annonces se répétaient toutes les minutes. Les routeurs tenaient à jour une liste de tous les services disponibles, prêts à renseigner n’importe quel client en quête d’une ressource particulière.
L’adaptabilité d’IPX/SPX se manifestait dans sa capacité à cohabiter avec différents standards Ethernet. Le protocole acceptait plusieurs types d’encapsulation : le format propriétaire de Novell, les standards IEEE 802.2 et 802.3, Ethernet II, et SNAP. Cette souplesse facilitait l’intégration dans des environnements hétérogènes, à condition de maintenir une cohérence dans la configuration de tous les équipements.
Au sommet de la pile protocolaire, NCP gérait les aspects métier : accès aux fichiers, contrôle de l’impression, sécurité. NetBIOS trouvait sa place grâce à une couche d’émulation qui permettait aux applications existantes de continuer à fonctionner. Les modules NLM étendaient les possibilités du système avec de nouveaux protocoles, des services de communication ou l’accès à des bases de données.
La décennie 1990 vit IPX/SPX s’épanouir dans les entreprises. Sa facilité de mise en œuvre et ses bonnes performances en faisaient un choix naturel pour les administrateurs réseau. Mais Internet grandissait et TCP/IP s’imposait comme le langage universel des communications numériques. Face à cette montée en puissance, Novell dut réviser sa stratégie.
L’entreprise intégra progressivement TCP/IP dans NetWare. Les versions ultérieures proposèrent d’encapsuler IPX dans des paquets UDP/IP pour traverser les réseaux basés sur le protocole d’Internet. L’arrivée de NDS dans NetWare 4.0 réduisit la dépendance au protocole SAP en permettant aux clients de localiser les services via un annuaire centralisé.
La transition s’accéléra dans les années 2000. Les nouvelles applications naissaient avec TCP/IP dans leurs gènes, reléguant IPX/SPX au rang de technologie héritée. Novell finit par abandonner le développement de sa suite protocolaire pour se tourner vers les solutions IP.
Cette évolution ne doit pas masquer l’influence durable d’IPX/SPX. L’utilisation directe des adresses MAC, la découverte automatique des services, ces concepts resurgiront dans des technologies plus récentes. Les protocoles modernes comme mDNS ou UPnP reprennent des idées que SAP avait déjà explorées.
L’histoire d’IPX/SPX raconte celle d’une époque où les protocoles réseau se battaient pour imposer leur vision de la communication. Face à la standardisation universelle de TCP/IP, les solutions propriétaires, techniquement abouties ou non, ne pouvaient que s’effacer. Cette leçon dépasse le simple cadre technique : dans un monde interconnecté, l’ouverture et l’interopérabilité l’emportent souvent sur l’excellence locale.
Le destin d’IPX/SPX illustre finalement une vérité immuable de l’informatique : aucune technologie, aussi brillante soit-elle, ne survit sans s’adapter aux évolutions du marché. TCP/IP n’a pas triomphé par ses seules qualités intrinsèques, mais parce qu’il est devenu la lingua franca d’Internet. Dans cette bataille des protocoles, c’est l’universalité qui a eu le dernier mot.
SMB
En 1984, IBM crée un protocole qui va transformer la manière dont les ordinateurs partagent leurs ressources : SMB, pour Server Message Block. À cette époque, personne n’imagine que cette technologie deviendra l’épine dorsale des réseaux d’entreprise modernes. L’idée paraît pourtant simple : permettre à des machines distantes de partager fichiers et imprimantes via NetBIOS.
Microsoft s’empare de cette innovation. Dès 1987, la firme de Redmond intègre SMB dans son programme LAN Manager, suivi l’année suivante par IBM avec son serveur OS/2 LAN. Ces premières implémentations marquent le début d’un système qui va bientôt coloniser les bureaux du monde entier. Le partage de ressources en réseau local trouve enfin sa voie.
Neuf ans plus tard, Microsoft franchit un cap décisif. Windows NT 4.0 arrive en 1996 avec CIFS, Common Internet File System. Cette version dialectale de SMB s’adapte aux réseaux d’entreprise qui gagnent en complexité. L’IETF publie un projet de norme l’année suivante, tandis que la SNIA propose une spécification technique en 1999. Le protocole sort progressivement de son carcan propriétaire.
Le millénaire change, et avec lui l’appellation du protocole. Windows 2000 renoue avec le nom SMB tout en apportant des extensions considérables. Les ports TCP dédiés (445) viennent s’ajouter aux traditionnels ports NetBIOS (137-139). Cette évolution accompagne la migration de NetBIOS vers TCP/IP, reflétant la maturité croissante des infrastructures réseau.
L’année 2006 marque une rupture. Windows Vista introduit SMB 2.0, version qui bouleverse l’architecture du protocole. Microsoft fait le ménage : les 75 commandes de l’ancienne version se réduisent à 19 instructions. Les opérations asynchrones font leur apparition, les lectures et écritures gagnent en efficacité. Le hachage HMAC SHA-256 remplace l’antique MD5, renforçant la sécurité d’un protocole devenu incontournable.
Windows 7 peaufine cette base avec SMB 2.1 en 2009. La gestion du cache s’affine, les réseaux à large bande passante trouvent leur compte. Le système de bail de fichiers remplace le mécanisme de verrouillage opportuniste, réduisant le bavardage réseau tout en améliorant la gestion des métadonnées.
Mais c’est en 2012 que SMB connaît sa plus belle métamorphose. Windows 8 et Windows Server 2012 accouchent de SMB 3.0, version qui répond enfin aux besoins des entreprises modernes. La haute disponibilité est rendue possible grâce au basculement transparent. Le multichannel agrège plusieurs connexions réseau, multipliant les performances. Le protocole RDMA s’intègre naturellement, avec des débits jusqu’alors inimaginables. Le chiffrement AES-CCM sécurise les échanges les plus sensibles.
L’évolution ne s’arrête pas là. SMB 3.02 débarque avec Windows 8.1 l’année suivante, apportant le support des clusters asymétriques et perfectionnant RDMA. Windows 10 introduit la version 3.1.1, durcissant encore la sécurité face aux menaces grandissantes.
Pendant ce temps, une autre histoire s’écrit dans le monde du logiciel libre. Andrew Tridgell développe Samba, implémentation alternative qui réconcilie les univers Windows et UNIX. Ce projet de rétro-ingénierie titanesque force Microsoft à publier ses spécifications, démocratisant un protocole longtemps gardé secret. Samba transforme SMB en standard de facto, dépassant les frontières des systèmes d’exploitation.
Cette évolution sur quatre décennies raconte l’histoire des réseaux d’entreprise. D’un simple mécanisme de partage local, SMB s’est mué en système complexe gérant performance, sécurité et haute disponibilité. Chaque version répond aux mutations de l’informatique d’entreprise : virtualisation, cloud, protection des données.
La sécurité reste le talon d’Achille du protocole. Les premiers mécanismes d’authentification LM et NTLM montrent leurs faiblesses. NTLMv2 puis les signatures de paquets, introduites avec Windows NT 4.0 SP3, colmatent les brèches. Les versions récentes intègrent chiffrement robuste et protections anti-attaques, répondant aux menaces contemporaines.
Devenu standard universel du partage de fichiers, SMB équipe tous les systèmes d’exploitation modernes. Son adaptation constante accompagne les architectures distribuées, le stockage cloud, et les nouvelles menaces cybernétiques.
La vulnérabilité découverte par le Cult of the Dead Cow en 2001 (CVE-2008-4037) impose des correctifs majeurs. Les attaques par relais SMB nécessitent l’ajout de protections spécifiques. Chaque incident forge un protocole plus résistant.
Les environnements informatiques modernes exigent toujours plus : performances accrues, sécurité renforcée, adaptation aux nouvelles architectures de stockage. Cette capacité d’évolution perpétuelle de SMB explique la longévité d’un protocole né il y a quarante ans, toujours indispensable aux entreprises du XXIe siècle.
Lotus 1-2-3
VisiCalc régnait en maître sur le marché des tableurs quand Mitch Kapor et Jonathan Sachs décidèrent de créer leur propre logiciel. Nous sommes en 1982, et ces deux hommes connaissent bien l’univers qu’ils s’apprêtent à bouleverser. Kapor a travaillé chez Personal Software, l’éditeur de VisiCalc, où il a conçu VisiPlot et VisiTrend pour la visualisation graphique. Sachs a déjà programmé des tableurs, notamment pour Data General. Cette connaissance du terrain leur donne une longueur d’avance : ils savent exactement ce qui manque aux solutions existantes.
L’IBM PC, lancé l’année précédente, apporte une crédibilité nouvelle à la micro-informatique et offre des capacités techniques sans commune mesure avec les ordinateurs 8 bits. Ses 640 Ko de mémoire et son processeur 16 bits ouvrent des perspectives inédites. Kapor et Sachs décident de parier sur cette plateforme et de concevoir un tableur qui exploite pleinement ses ressources.
Leur approche technique tranche avec celle de leurs concurrents. Là où d’autres utilisent des langages de haut niveau, ils choisissent l’assembleur pour maximiser les performances. Ils programment l’interface directe avec le matériel vidéo, contournant le BIOS pour accélérer l’affichage. Ils repensent l’ordre de recalcul des cellules pour optimiser la mise à jour des formules interdépendantes, résultant en une vitesse d’exécution cinq fois supérieure à celle des autres tableurs.
L’interface utilisateur bénéficie d’innovations remarquables. Les menus déroulants avec curseur mobile et invites contextuelles rendent le logiciel accessible aux novices. L’intégration des graphiques transforme instantanément les données en diagrammes, créant des démonstrations spectaculaires qui suscitent l’enthousiasme des prospects. Les macros clavier, ajoutées malgré les réticences initiales de Sachs, donnent aux utilisateurs expérimentés la possibilité d’automatiser leurs tâches et de développer de véritables applications.
Lotus Development Corporation ne se contente pas d’un bon produit : l’entreprise innove aussi dans sa stratégie commerciale. Elle forme ses revendeurs, soigne son support client, et accompagne le logiciel d’un disque de démonstration avec tutoriel interactif. La documentation est travaillée. Surtout, la société investit massivement en publicité dans la presse économique, une démarche inhabituelle pour un éditeur de logiciels à cette époque.
Le lancement au Comdex de l’automne 1982 dépasse toutes les espérances : 900 000 dollars de commandes dès les premiers jours. En 1983, première année complète de commercialisation, le chiffre d’affaires atteint 53 millions de dollars. L’année suivante, il bondit à 156 millions, et les effectifs passent de 20 à 750 personnes en deux ans seulement, faisant de Lotus le plus gros éditeur mondial de logiciels.
Cette réussite s’explique par un alignement parfait des planètes. Le produit répond exactement aux besoins des entreprises qui découvrent la micro-informatique. Sa compatibilité avec les fichiers VisiCalc facilite la migration. La base installée d’IBM PC connaît une croissance explosive. La qualité du produit et l’exécution commerciale ne laissent aucune place aux concurrents.
Mais ce succès foudroyant crée ses propres difficultés rendant la croissance de l’entreprise ingérable. Les équipes originelles partent vers d’autres projets. Le développement de nouveaux produits s’avère complexe. Symphony, tentative de créer une suite bureautique intégrée, déçoit. Jazz, la version pour Macintosh, échoue face à Excel de Microsoft.
Les tentatives de diversification se multiplient avec Metro, Express ou Manuscript, sans jamais retrouver la magie de 1-2-3. Seul Notes, développé par Ray Ozzie, rencontre un véritable succès après le rachat de Lotus par IBM en 1995.
L’évolution technologique finit par rattraper le leader. Le passage à Windows s’avère tardif et laborieux. Le code en assembleur, initialement un atout, est finalement un boulet pour faire évoluer le produit. Microsoft Excel, conçu d’emblée pour les interfaces graphiques, grignote progressivement des parts de marché et s’impose comme le nouveau standard.
Lotus 1-2-3 a démontré le potentiel commercial gigantesque du marché des logiciels professionnels. Il établit les standards de l’interface utilisateur moderne avec ses menus déroulants et raccourcis clavier. Les macros permettent la programmation par les utilisateurs finaux. Le format DIF (Data Interchange Format) facilite l’échange de données entre applications.
Lotus 1-2-3 transforme la perception de l’ordinateur personnel en entreprise, d’outil expérimental à instrument indispensable à la productivité individuelle. Cette mutation accélère l’informatisation des organisations et fonde une véritable industrie du logiciel. Le tableur de Kapor et Sachs n’était pas seulement un produit : c’était un catalyseur qui a précipité l’entrée du monde des affaires dans l’ère numérique.
Microsoft Word
Novembre 1983. Les lecteurs de PC World découvrent avec surprise une disquette glissée dans leur magazine. Sur cette disquette : Multi-Tool Word, un traitement de texte inconnu signé Microsoft. Cette distribution audacieuse marque les débuts commerciaux d’un logiciel qui transformera radicalement notre rapport à l’écriture numérique.
L’histoire commence pourtant dix ans plus tôt, dans les laboratoires feutrés du Xerox PARC. Charles Simonyi, jeune informaticien hongrois fraîchement diplômé de Stanford, rejoint en 1972 cette pépinière d’innovations. Il travaille sur Bravo, un projet qui bouscule les conventions : pour la première fois, un traitement de texte affiche le texte exactement comme il apparaîtra sur papier. Fini les codes de formatage cryptiques, fini les surprises à l’impression. Le concept porte un nom qui fera fortune : WYSIWYG, « What You See Is What You Get ».
Bravo reste confiné aux laboratoires. Xerox, géant de la photocopie, ne saisit pas l’enjeu commercial de ces recherches. Bill Gates, lui, a l’œil. En 1981, il débauche Simonyi avec pour mission précise de créer les applications bureautiques de Microsoft. Le Hongrois rédige un mémorandum de trois pages et demie qui définit toute la stratégie, une suite logicielle intégrée pour particuliers et entreprises. Ce document, aujourd’hui conservé dans un coffre-fort, dessine les contours de ce qui deviendra Office.
Word naît dans ce contexte. Sa première version MS-DOS tranche avec les usages de l’époque. Là où WordStar, le leader du marché, s’accommode du clavier, Word mise sur la souris Microsoft. Les publicités vantent cette interface graphique rudimentaire qui affiche du texte en gras, en italique ou souligné. Nouveau pour MS-DOS, mais limité car il est impossible de changer de police. Les ventes peinent et WordStar garde ses fidèles, habitués à ses raccourcis clavier.
Tout bascule avec l’arrivée du Macintosh en 1984. Apple impose son interface graphique, et Microsoft saisit l’opportunité. L’équipe de Simonyi, une vingtaine de développeurs tout au plus, adapte Word au Mac. Cette fois, les concepts de Bravo trouvent leur terrain d’expression : polices multiples, mise en page sophistiquée, WYSIWYG intégral. Le logiciel révèle enfin son potentiel.
Cette philosophie de développement illustre l’approche Microsoft des années 1980. Repérer les innovations prometteuses, les adapter au marché de masse, itérer sans relâche. Simonyi cultive cette organisation volontairement réduite pour garder sa cohérence et sa vélocité, ce qui lui rappelle ses années au PARC.
Avec Windows, Microsoft transpose sur sa plateforme les acquis de la version Mac. Windows 3.0, lancé en 1990, propulse Word au sommet. La stratégie commerciale fait mouche avec sa vente groupée à Windows, et les prix cassés. WordPerfect et WordStar, pourtant bien implantés, perdent pied. Word est désormais incontournable.
Microsoft ne se contente pas de dominer le marché du traitement de texte. L’entreprise orchestre l’intégration entre ses applications : Word, Excel, PowerPoint forment désormais Office. Cette cohérence répond aux attentes des entreprises qui cherchent des outils compatibles. Le format .doc s’impose naturellement comme référence pour échanger des documents.
Les années 1990 voient Word s’enrichir sans cesse : correcteur orthographique, dictionnaire des synonymes, publipostage, suivi des modifications. Cette accumulation de fonctions divise. Les utilisateurs occasionnels se perdent dans des menus interminables. Les professionnels apprécient cette richesse fonctionnelle. Simonyi s’interroge sur cette dérive de Word vers une complexité de plus en plus grande.
Au-delà de l’outil, Word transforme nos pratiques d’écriture. La mise en forme sophistiquée, jadis apanage des typographes et des éditeurs, se démocratise. Chacun peut créer des documents aux allures professionnelles. Cette accessibilité a son revers : les modèles intégrés standardisent la présentation. Word influence notre façon de structurer la pensée, de hiérarchiser les idées.
Cette critique accompagne Word depuis ses débuts. Le logiciel formate-t-il notre créativité ? Uniformise-t-il notre expression ? Ces questions traversent quarante années d’évolution technologique. De MS-DOS au cloud, de la disquette au smartphone, Word accompagne nos mutations numériques.
Office 365 propulse Word dans l’ère collaborative. Les documents vivent dans le cloud, se partagent en temps réel, suivent l’utilisateur sur tous ses appareils. Cette omniprésence couronne quatre décennies d’évolution continue.
Charles Simonyi a quitté Microsoft en 2002. Sa création lui survit, transformée mais fidèle à ses principes fondateurs. Traitement de texte de référence, Word est utilisé par des centaines de millions de personnes comme logiciel de traitement de texte de référence. Son histoire résume celle de l’informatique grand public, d’innovation de laboratoire à outil universel, une technologie qui façonne nos gestes quotidiens.
MSX
L’informatique personnelle des années 1980 ressemblait à un far-west technologique. Chaque constructeur développait ses propres machines, incompatibles les unes avec les autres, transformant l’achat d’un ordinateur familial en véritable parcours du combattant. Un logiciel écrit pour un Commodore ne fonctionnait pas sur un Amstrad, et vice versa. Cette cacophonie technologique frustra Kazuhiko Nishi, fondateur d’ASCII Corporation au Japon (aucun lien avec American Standard Code for Information Interchange) et vice-président des nouvelles technologies chez Microsoft.
L’homme avait observé avec attention le succès du standard VHS dans l’industrie vidéo. Là où Betamax et VHS s’affrontaient, la victoire était revenue au format qui avait su fédérer le plus grand nombre de fabricants. Fort de cette leçon, Nishi imagina le MSX en 1983. Son idée tenait en quelques mots : créer un standard technique que différents constructeurs pourraient adopter, garantissant ainsi la compatibilité totale entre toutes les machines estampillées du logo MSX.
Le nom choisi révélait l’ambition du projet. « Machines with Software eXchangeability », selon son créateur, traduisait cette volonté de permettre l’échange de logiciels entre ordinateurs de marques différentes. D’autres interprétations circulèrent : « MicroSoft eXtended BASIC » ou « Matsushita Sony X-machine », témoignant de l’engagement des géants technologiques derrière l’initiative.
L’architecture technique du MSX reposait sur des composants déjà éprouvés. Un processeur Zilog Z80A cadencé à 3,58 MHz constituait le cœur du système, épaulé par une puce vidéo TMS9918 capable d’afficher 16 couleurs en résolution 256x192, et un générateur de son AY-3-8910. La mémoire vive oscillait entre 8 et 128 ko, avec généralement 32 ou 64 ko selon les modèles. Cette configuration permettait l’utilisation de trois supports différents : cassettes, disquettes et cartouches.
Microsoft développa MSX-DOS, un système d’exploitation inspiré du MS-DOS des PC IBM. Il intégrait un BASIC étendu qui simplifiait la programmation et garantissait la compatibilité entre machines. Dans un marché où chaque constructeur bricolait habituellement ses propres solutions, cette standardisation matérielle et logicielle constituait une véritable innovation.
Les géants de l’électronique japonaise mordirent à l’hameçon. Sony, Toshiba, Panasonic, Canon, Yamaha : tous adoptèrent le standard. Sony lança le bal avec son HB-10 en 1983, d’abord habillé de rouge et blanc pour séduire le marché japonais, puis de noir pour l’exportation. Plus de vingt fabricants produisirent leurs propres ordinateurs MSX, certains comme Sony et Philips proposant jusqu’à une dizaine de modèles dans leur gamme.
Au Japon, le succès fut immédiat. Les consommateurs appréciaient cette garantie de compatibilité qui leur évitait les mauvaises surprises. Les éditeurs de jeux vidéo flairèrent l’opportunité : Konami y développa sa série Metal Gear, tandis que Castlevania et Gradius trouvèrent sur MSX un terrain d’expression privilégié. C’est d’ailleurs sur cette plateforme que naquit le fameux « Konami Code », cette combinaison de touches devenue légendaire dans l’univers du jeu vidéo.
Le phénomène déborda largement des frontières nippones. La Corée du Sud, le Brésil, le Chili adoptèrent massivement le MSX. En Europe, les Pays-Bas constituèrent son bastion, Philips en faisant son cheval de bataille. L’Union soviétique succomba : le ministère de l’Éducation acquit des centaines de MSX1 et MSX2 pour équiper les salles informatiques des écoles, formant toute une génération de programmeurs derrière le rideau de fer.
Pourtant, l’Amérique résista. Seuls le SpectraVideo et le Yamaha CX-5M (commercialisé comme instrument de musique) parvinrent à franchir l’Atlantique. En 1984, le Commodore 64 régnait en maître sur le territoire américain, et le marché ne voyait guère l’intérêt d’adopter ce qu’il considérait comme un produit techniquement inférieur. Outre-Manche, la concurrence du ZX Spectrum et le prix prohibitif des jeux sur cartouche face aux cassettes bon marché limitèrent sévèrement son adoption.
Face à ces résistances, le standard évolua. Le MSX2, lancé en 1986, apporta des améliorations substantielles : davantage de mémoire, un processeur plus véloce, une puce graphique plus performante. Il conservait la compatibilité avec son prédécesseur et intégrait un lecteur de disquettes, alternative économique aux cartouches. En 1988, alors que la distribution européenne cessait, le MSX2+ apparut au Japon et en Corée, suivi par le MSX TurboR, ultime évolution du standard.
Le TurboR marqua une rupture en adoptant un processeur 16 bits tout en préservant la compatibilité Z80. Hélas, son prix élevé et des problèmes de compatibilité avec certains logiciels antérieurs brisèrent son élan. Il ne fut distribué qu’au Japon, avec un BIOS exclusivement japonais qui acheva de limiter son rayonnement.
L’émergence du PC IBM et la concentration de Microsoft sur Windows sonnèrent finalement le glas du MSX. ASCII Corporation tenta de maintenir le standard en vie, développant l’idée visionnaire de connecter les MSX en réseau pour créer un « internet primitif ». Mais le refus d’adopter le format CD-ROM enterra définitivement les espoirs du MSX3.
L’héritage du MSX perdure dans la communauté des passionnés d’informatique rétro. Sa philosophie de standardisation et sa riche bibliothèque logicielle continuent d’inspirer développeurs et amateurs. On retrouve son influence dans la musique chiptune et la culture du retrogaming. Des projets comme le 1chipMSX, qui concentre toute la logique MSX dans une puce FPGA, perpétuent son esprit d’innovation.
L’aventure MSX illustre une tentative audacieuse de standardisation anticipant des problématiques toujours actuelles. Si le standard n’atteignit pas son objectif de domination mondiale, il démontra la viabilité d’une approche collaborative dans le développement informatique.
Novell Netware
Dans l’Utah de 1979, quatre hommes se lancent dans l’aventure informatique sans imaginer qu’ils vont révolutionner la façon dont les machines communiquent entre elles. Dennis Fairclough, George Canova, Darin Field et Jack Davis créent Novell Data Systems Inc. à Orem, loin des laboratoires de Silicon Valley. Leur bailleur de fonds, Safeguard Scientifics, mise sur cette équipe pour développer des systèmes basés sur CP/M. Les premiers pas sont laborieux : la concurrence est rude et les ventes peinent à décoller.
L’idée qui va tout changer surgit presque par nécessité. Pourquoi ne pas connecter ces micro-ordinateurs qui prolifèrent dans les bureaux, plutôt que de s’acharner sur un marché saturé ? Cette intuition ne sort pas de nulle part. Plusieurs membres de l’équipe, dont les nouveaux arrivants Drew Major, Dale Neibaur et Kyle Powell, ont travaillé sur des contrats gouvernementaux qui les ont familiarisés avec ARPANET. Ils comprennent la puissance des réseaux avant que le grand public ne découvre Internet.
La route reste semée d’embûches. Le conseil d’administration de Safeguard manque de fermer la boutique, mais l’entreprise décroche de nouveaux financements in extremis. Raymond Noorda arrive à la direction en 1983. Cet homme d’affaires expérimenté rebaptise la société Novell Inc. et mise tout sur NetWare, leur système d’exploitation réseau.
L’approche de NetWare tranche avec ce qui existe alors. Une machine proclamée serveur dédié du réseau, orchestrant l’accès aux disques durs et imprimantes que se partagent les autres postes. La topologie en étoile s’appuie sur du câblage en paire torsadée, une technologie plus fiable que les solutions concurrentes. NetWare, d’abord baptisé ShareNet, décline en deux versions : l’une pour les processeurs Intel 8086, l’autre pour les Motorola.
Les années 1980 voient l’informatique personnelle s’installer massivement dans les entreprises. NetWare surfe sur cette vague et est la référence des réseaux locaux départementaux. En 1986, Novell étend son territoire avec GroupWise, une solution de messagerie et d’outils collaboratifs bien avant Microsoft Office 365.
Le début des années 1990 consacre la domination de NetWare : près de 70% du marché des systèmes d’exploitation réseau lui appartient. La version 4 transforme radicalement les possibilités du système. Novell Directory Services révolutionne l’administration en regroupant plusieurs serveurs sous une gestion unifiée. L’interface NetWare Administrator simplifie le quotidien des administrateurs réseau. Les services de fichiers et d’impression de NetWare n’ont alors pas d’équivalent.
Tout bascule avec l’explosion d’Internet à la fin des années 1990. Les réseaux locaux s’interconnectent, dépassent les frontières des départements pour embrasser des bâtiments entiers, puis des continents via les liaisons WAN. Novell réplique avec intraNetWare, qui embarque une version améliorée de NetWare 4.11. Cette mouture facilite l’installation, booste les performances et introduit le premier client 32 bits pour Windows.
IntraNetWare s’adapte aux nouveaux usages avec une passerelle IPX/IP pour connecter les postes aux réseaux IP, un serveur web intégré, le support natif de DHCP et DNS. NetWare excelle toujours dans son domaine de prédilection, mais les entreprises lui reprochent sa faiblesse pour héberger des applications métier.
Microsoft choisit ce moment pour frapper fort. La firme de Redmond rompt son partenariat avec 3Com et développe Windows NT avec des fonctionnalités réseau intégrées. Cette stratégie d’intégration verticale menace directement le modèle de Novell. Face à cette offensive, la société utahienne commet une erreur stratégique : elle rachète WordPerfect et Quattro Pro pour affronter Microsoft sur ses propres terres. Cette diversification disperse les efforts et les ressources sur des marchés que Novell maîtrise mal.
Microsoft joue la guerre d’usure. Ses ressources financières considérables lui donnent les moyens de persévérer jusqu’à ce que Windows NT s’impose face à NetWare. Novell, engagé sur trop de fronts, doit céder ses acquisitions et constamment réviser sa stratégie sans retrouver sa superbe.
Le tournant des années 2000 voit Novell épouser la philosophie du logiciel libre. NetWare renaît sous le nom d’Open Enterprise Server (OES), décliné en deux versions : l’une conserve le noyau NetWare traditionnel pour assurer la compatibilité, l’autre s’appuie sur SUSE Linux Enterprise Server. NetWare 6.5 marque la fin d’une époque : elle correspond à OES-NetWare Kernel avec le Support Pack 2. Désormais, Novell recommande d’exécuter NetWare dans une machine virtuelle Xen hébergée sur SUSE Linux Enterprise Server.
Cette trajectoire sur trente ans raconte l’évolution des réseaux d’entreprise. NetWare est né d’une intuition : connecter des machines isolées pour démultiplier leur utilité. Il a accompagné l’informatisation des organisations, transformant des postes autonomes en réseaux collaboratifs. Sa chute face à Microsoft illustre la brutalité de l’industrie informatique, où la position dominante ne garantit rien face à un concurrent déterminé et bien financé. La conversion finale au logiciel libre témoigne des mutations du secteur, où l’ouverture et l’interopérabilité sont aussi devenues des impératifs de survie.
Oric-1
Cambridge, octobre 1979. Le Dr Paul Johnson et Barry Muncaster viennent de fonder Tangerine Computer Systems dans cette ambiance effervescente qui caractérise l’industrie de la micro-informatique. Le nom de leur société s’inscrit dans cette mode un peu fantasque : après Apple, voici venue l’ère des fruits dans l’informatique. Leur premier né, le Microtan 65, ouvre la voie à ce qui deviendra bientôt une aventure bien plus ambitieuse.
Paul Kaufman rejoint l’équipe pendant l’été 1981 et prend les rênes de la Tansoft Gazette. L’entreprise grandit, se restructure. Début 1982, après s’être séparée de sa division Tandata Prestel, Tangerine s’installe au Cambridge Science Park et lance Tansoft, sa branche dédiée au logiciel. C’est à ce moment-là que naît Oric Products International, en avril 1982, avec Tangerine dans le rôle du laboratoire de recherche.
Au départ, l’idée semblait pourtant différente : concevoir un ordinateur de bureau pour cadres, capable de dialoguer avec le réseau Prestel. Kaufman couche sur le papier les spécifications d’un hypothétique Microtan 2, enrichi de capacités sonores et graphiques. Ces réflexions donnent naissance fin 1981 au projet Tangerine Tiger, une machine ambitieuse dotée de trois processeurs : un Z80 pour CP/M, un 6809 pour gérer les périphériques, et une puce graphique dédiée. Mais ce Tiger ne rugira jamais : H.H. Electronics rachète le projet qui sombrera dans l’oubli.
Le 27 janvier 1983, c’est dans le cadre somptueux du manoir de Coworth Park, ancienne résidence de Lord et Lady Derby, qu’Oric Products International dévoile officiellement l’Oric-1. Peter Harding, directeur commercial de 34 ans seulement, annonce la couleur avec une assurance déconcertante : six contrats majeurs signés avec des chaînes de magasins pour plus de 200 000 unités. Son objectif était de battre Clive Sinclair en offrant beaucoup plus pour beaucoup moins d’argent.
La stratégie tarifaire semble audacieuse. Il fallait débourser 129 £ pour la version 16k, 169,95 £ pour celle de 48k. Derrière cette machine, une équipe de développeurs talentueux travaille d’arrache-pied. Andy Brown et Chris Shaw, deux programmeurs chevronnés, s’attellent au ROM principal. Peter Halford développe les routines cassette et Oric Mon, tandis que Kaufman code les parties sonores sur un Microtan en Forth avant qu’Andy Brown ne les transpose en langage machine.
Les premiers échos de la presse spécialisée restent prudents. Le port imprimante Centronics fait sensation : « inhabituel, voire unique pour une machine de ce prix », note un critique. Mais les bugs du ROM et les ratés du chargement des cassettes ternissent l’image. La réaction d’Oric ne se fait pas attendre : Cosma Sales, le duplicateur de cassettes, se voit montrer la porte, accusé d’être responsable des dizaines de milliers de cassettes défectueuses qui circulent.
Outre-Manche, le succès tarde. La France se montrant plus accueillante, A.S.N. signe le 29 juin 1983 un contrat de distribution exclusive sur la base de 4 000 machines mensuelles. Le marché français développe un écosystème logiciel de qualité, faisant de l’Oric l’équivalent hexagonal du Spectrum britannique. Une réussite inattendue dans un pays pourtant réputé difficile à conquérir.
Cette embellie ne dure qu’un temps. Février 1985 : Edenspring place Oric en redressement judiciaire. Les chiffres font froid dans le dos : 5,5 millions de livres de dettes contre 3 millions d’actifs seulement. La chute semble inéluctable quand, en juin 1985, S.P.I.D. surgit de France et rachète la société pour « plusieurs centaines de milliers de livres ». L’Atmos, successeur de l’Oric-1, reprend vie dans une usine normande.
Les nouveaux propriétaires français tentent de relancer la machine avec le Telestrat, spécialement conçu pour le réseau Minitel. L’idée paraît séduisante sur le papier, mais le prix élevé et la spécificité du marché limitent les ambitions. Décembre 1987 : Oric International retombe en redressement judiciaire, cette fois avec d’importantes dettes fiscales au compteur. Un an plus tard, en décembre 1988, les chaînes de production s’arrêtent définitivement.
L’Oric-1 repose sur le populaire processeur 6502, choix dicté autant par sa réputation que par son coût modéré. Sa mémoire gère l’affichage texte et haute résolution avec des capacités sonores remarquables. Ses attributs graphiques série se révèlent adaptés aux jeux, un atout non négligeable. La machine embarque un BASIC Microsoft modifié et un modulateur UHF pour la connexion télévisée.
L’histoire d’Oric révèle les pièges de ce marché des années 1980. Malgré des caractéristiques techniques honorables et des prix attractifs, l’entreprise a échoué à maîtriser sa croissance et à alimenter régulièrement le marché en logiciels de qualité. Les promesses non tenues se sont accumulées, notamment concernant le lecteur de disquettes Microdisc, annoncé dès 1983 mais disponible seulement en 1984, quand il était presque trop tard.
Pourtant, l’Oric a survécu à sa propre disparition grâce à une communauté d’utilisateurs passionnés. Des publications comme Oric User Monthly ont continué à paraître bien après la fin de la société. En France comme au Royaume-Uni, des groupes d’utilisateurs entretiennent encore la mémoire de cette machine qui, malgré ses défauts, a initié toute une génération à l’informatique personnelle.
L’aventure Oric incarne cette époque où l’audace technique côtoyait l’improvisation commerciale. Si l’échec final était peut-être inévitable, il témoigne de la vitalité créatrice de l’industrie informatique britannique des années 1980, capable de proposer des alternatives crédibles aux géants du secteur dans un marché en perpétuelle mutation.
Amstrad CPC 464
En 1984, Alan Sugar gribouillait sur une serviette en papier durant un vol transatlantique. Ce croquis allait donner naissance à l’une des machines les plus marquantes de l’informatique familiale britannique : l’Amstrad CPC 464. L’idée paraissait simple sur le papier, mais sa réalisation technique nécessitait bien plus que quelques traits au stylo-bille. Roland Perry, directeur technique d’Amstrad, hérita de cette esquisse et la transforma en réalité.
Le défi était de taille. Sugar voulait un ordinateur qui fonctionnerait dès la sortie de sa boîte, sans le casse-tête habituel des branchements multiples qui rebutait tant de familles. Le CPC 464 intégrait tout dans un seul boîtier : clavier, lecteur de cassettes, et liaison directe vers son moniteur dédié. Un seul câble d’alimentation suffisait. Cette simplicité tranchait avec les habitudes de l’époque, où monter un système informatique relevait souvent du parcours du combattant.
Perry avait initialement jeté son dévolu sur le processeur 6502, mais les développeurs britanniques connaissaient mieux le Z80. Ce processeur de Zilog, cadencé à 4 MHz, équipait déjà de nombreuses machines outre-Manche. La décision se révéla judicieuse : les 64 Ko de mémoire vive s’accompagnaient de capacités graphiques remarquables. Vingt-sept couleurs disponibles, plusieurs modes d’affichage, de quoi séduire les amateurs de jeux comme les apprentis programmeurs.
La stratégie commerciale d’Amstrad mérite qu’on s’y arrête. Sugar proposa deux configurations : 200 livres sterling pour la version écran monochrome, 300 pour la couleur. Ces tarifs se glissaient habilement entre le Sinclair Spectrum, moins cher mais limité, et le BBC Micro, plus puissant mais hors de portée de beaucoup de bourses. Surtout, Sugar anticipa l’écueil qui avait tué bien des machines prometteuses : le manque de logiciels au lancement.
Quarante prototypes partirent chez les développeurs. Des sessions de formation furent organisées, et une bibliothèque logicielle conséquente attendait donc les premiers acheteurs. Cette préparation minutieuse paya. Les utilisateurs découvrirent une machine fiable, facile à installer, qui tenait ses promesses. Si la patience restait de mise avec les temps d’accès interminables du support magnétique, le lecteur de cassettes intégré simplifiait le chargement des programmes.
Cette limitation poussa Amstrad à réagir vite. 1985 vit naître le CPC 664, équipé d’un lecteur de disquettes 3 pouces. Mais ce modèle intermédiaire céda sa place au CPC 6128, doté de 128 Ko de mémoire et d’ambitions plus professionnelles. L’évolution était lancée, mais le 464 original conservait ses atouts pour le grand public.
Les jeux firent la renommée du CPC. La série des « Roland » rendait hommage à Perry, tandis que les capacités graphiques et sonores permettaient des adaptations de qualité. Le Basic intégré ouvrait les portes de la programmation aux débutants, épaulé par une documentation soignée. Certains osèrent s’aventurer vers des applications sérieuses : Protext démontrait qu’un traitement de texte digne de ce nom pouvait tourner sur la machine.
L’international ne fut pas oublié. En France, Amstrad soigna la localisation : claviers adaptés, manuels traduits, distribution organisée. Cette attention aux spécificités nationales porta ses fruits dans quelques pays européens. Le CPC s’installait durablement dans les foyers, ouvrant à Amstrad les portes du marché informatique. L’entreprise enchaîna avec le PCW 8256 en 1985, puis se lança dans les compatibles PC dès 1986.
Les années passant, Amstrad tenta de relancer la flamme. 1990 vit arriver les modèles Plus, 464 Plus et 6128 Plus, aux graphismes améliorés. Une console dérivée, la GX4000, échoua face aux mastodontes japonais. La production s’essouffla au début des années 1990, mais l’histoire ne s’arrêtait pas là.
Une communauté active préserve l’héritage du CPC. Les émulateurs ressuscitent les logiciels d’antan, tandis que des développeurs amateurs créent de nouveaux programmes. Cette fidélité témoigne des qualités durables de la machine : conception cohérente, documentation complète, robustesse à toute épreuve. Le pragmatisme d’Amstrad avait visé juste : simplicité d’usage plutôt que course aux performances.
Apple Macintosh
L’histoire commence en 1979 dans les couloirs d’Apple, là où Jef Raskin, ancien de l’équipe Apple II, ruminait une idée qui paraissait folle à l’époque. Il voulait créer un ordinateur aussi simple qu’un grille-pain, vendu mille dollars et produit en masse. La direction d’Apple, absorbée par les déboires de l’Apple III et le développement coûteux de la station Lisa, accueillit cette proposition avec un haussement d’épaules poli.
Tout bascula quand Burrell Smith débarqua dans l’équipe. Ce réparateur d’Apple II du service maintenance cachait un génie technique. Après une visite dans la Silicon Valley qui l’avait électrisé, il s’était mis à bidouiller avec les microprocesseurs. Son prototype artisanal — un Motorola 6809 bricolé sur un Apple II avec un écran de télé — impressionna Raskin au point qu’il l’intégra immédiatement au projet. Steve Jobs, alors vice-président mais écarté du projet Lisa pour manque d’expérience, flaira l’opportunité et prit les rênes du Macintosh.
Jobs installa son équipe loin du siège social, dans des locaux surnommés « Texaco Towers » parce qu’ils se trouvaient derrière une station-service. L’endroit ressemblait plus à une colocation étudiante qu’à des bureaux d’entreprise. Cette proximité physique créa une dynamique particulière : Andy Hertzfeld, chargé du système d’exploitation, travaillait coude à coude avec Smith sur le matériel. Cette collaboration étroite leur permit d’exploiter chaque bit de mémoire disponible.
L’équipe s’était fixé un objectif ambitieux : 300 000 unités par an. Smith, obsédé par la réduction des coûts, entreprit de révolutionner l’architecture. Là où la concurrence multipliait connecteurs et slots d’extension, le Macintosh n’aurait que deux cartes électroniques. Pas de tampons, pas d’emplacements superflus. Les fonctions vitales seraient gravées en mémoire morte pour gagner en fiabilité.
Le parti pris était radical : architecture spécialisée contre flexibilité généraliste. L’équipe disséqua méthodiquement les produits concurrents et constata que leurs connecteurs multiples ralentissaient les performances tout en gonflant les prix. Le Macintosh miserait sur un port série rapide pour les extensions futures.
L’interface utilisateur s’inspira du Lisa, mais en version allégée. Les fenêtres graphiques permettaient d’afficher plusieurs programmes, les icônes remplaçaient les commandes obscures, la souris devenait reine. Seulement, tout devait tourner avec moins de mémoire que le Lisa, et plus vite. L’équipe réécrivit le logiciel de fond en comble, abandonna le multitâche du Lisa au profit d’une illusion créée par de petits programmes système comme la calculatrice.
Bill Atkinson leur légua QuickDraw, son logiciel de gestion graphique créé pour le Lisa. Cette boîte à outils, stockée en ROM, devint l’âme du Macintosh. Les développeurs pouvaient enrichir le système en chargeant des définitions supplémentaires depuis les disques, préservant ainsi la mémoire limitée.
Le choix du Motorola 68000 divisa l’équipe. Ce processeur coûteux dépassait largement les besoins immédiats, mais Jobs paria sur une baisse des prix. L’équipe optimisa tout : un seul mode du processeur utilisé sur les quatre disponibles, trois niveaux d’interruption sur sept, système de fichiers avec un index unique.
La fabrication nécessita une usine révolutionnaire à Fremont, en Californie. Inspirée des méthodes japonaises, elle appliquait la production en juste-à-temps et la tolérance zéro défaut. Les fournisseurs livraient de petits lots fréquents, les erreurs étaient analysées immédiatement. L’usine était conçue en trois phases d’évolution, anticipant la montée en cadence.
En janvier 1984, le Macintosh débarqua à 2 495 dollars. Le prix était loin des mille dollars rêvés par Raskin, mais l’ordinateur marqua les esprits. La publicité du Super Bowl, pastiche d’1984 d’Orwell, présenta Apple en libérateur face à l’uniformisation IBM. L’interface graphique conviviale et le design compact créèrent un nouveau standard.
Les critiques ne manquèrent pas : prix élevé, limitations réseau, mémoire insuffisante. Mais le Macintosh avait planté une graine. Il démontra qu’un ordinateur pouvait être autre chose qu’une machine à calculer : un objet de design, une extension de la pensée humaine.
L’équipe originale avait établi des principes qui survivront à toutes les modes : design avant tout, intégration matériel-logiciel poussée, simplicité obsessionnelle. Jobs quitta Apple en 1985 après un conflit avec le conseil d’administration. L’entreprise sombra dans l’incohérence, multipliant les modèles sans fil conducteur.
Le retour de Jobs en 1997 remit ces fondamentaux au centre. Gamme épurée, design soigné, intégration totale : ces principes, appliqués à l’iPod puis à l’iPhone, permirent à Apple de conquérir le monde. Cette machine beige de 1984, née de la rencontre entre un réparateur génial et un visionnaire obsessionnel, avait changé notre rapport à la technologie.
HP-UX
C’est au début des années 1980 que Hewlett-Packard décide de se lancer dans l’aventure UNIX. Le marché bouillonne alors d’activité, les constructeurs rivalisent d’ingéniosité pour proposer leur propre variante du système. En 1984, HP sort la première mouture de HP-UX, un UNIX System V retravaillé qui tourne exclusivement sur les serveurs HP 9000 des séries 200, 300 et 400. Ces machines embarquent le processeur Motorola 68000, déjà éprouvé dans d’autres contextes.
HP ne se contente pas d’une simple adaptation d’UNIX. Les ingénieurs introduisent d’emblée les listes de contrôle d’accès, une approche plus fine que le traditionnel système de permissions UNIX. Un gestionnaire de volumes logiques fait aussi partie de l’équipement de base, simplifiant la vie des administrateurs confrontés aux problèmes de stockage. Ces ajouts ne relèvent pas du gadget : ils répondent aux besoins concrets des utilisateurs professionnels.
L’évolution suit le rythme du matériel HP. La version 5.0 de 1985 s’étend à l’Integral PC, puis aux séries 200/300 et 500. HP commence à unifier son approche, cherchant une cohérence entre ses différentes gammes. Cette stratégie porte ses fruits quand arrive l’architecture PA-RISC vers la fin de la décennie.
PA-RISC, ces processeurs RISC développés en interne par HP, vont orienter durablement l’évolution technique du système. En 1988, HP jongle avec deux lignes de développement : les versions 3.x pour les séries 600/800 et 6.x pour la série 300. Cette situation reflète la transition délicate entre les anciennes architectures et la nouvelle génération PA-RISC.
L’unification se concrétise en 1990 avec HP-UX 7.x, qui couvre les séries 300/400 et 600/700/800. Les utilisateurs y gagnent en simplicité, les administrateurs en cohérence. Un an plus tard, la version 8.x apporte les bibliothèques partagées, améliorant sensiblement les performances et l’usage de la mémoire. La version 9.x de 1992 enrichit l’arsenal avec le System Administration Manager et le Logical Volume Manager, deux outils qui modernisent l’administration système.
En 1995 sort HP-UX 10.0. Cette version unifie les séries 700 et 800 tout en adoptant la structure de répertoires SVR4, se rapprochant des standards UNIX du moment. L’année suivante, HP-UX 10.20 franchit le cap du 64 bits avec les processeurs PA-RISC 2.0. Une prouesse technique qui ouvre de nouveaux horizons.
HP-UX 11.00 réussit en 1997 un tour de force remarquable : supporter l’adressage 64 bits sans abandonner les applications 32 bits. Cette rétrocompatibilité évite aux entreprises la rupture brutale d’une migration. Trois ans plus tard, HP-UX 11i v1 (11.11) introduit les environnements d’exploitation, personnalisant le système selon les besoins spécifiques de chaque type d’usage.
L’architecture connaît un nouveau bouleversement en 2001 avec HP-UX 11i v1.5 (11.20), qui intègre le support Itanium d’Intel. Cette décision stratégique accompagne la transition progressive de PA-RISC vers les processeurs Intel. HP-UX 11i v2 (11.23) de 2003 renforce la virtualisation, tandis que la version 11i v3 (11.31) de 2007 ajoute le multipathing natif et peaufine encore les capacités virtuelles.
Au fil des versions, HP-UX se taille une solide réputation dans les services informatiques, l’édition logicielle et la finance. Le système de fichiers VxFS et le gestionnaire LVM sont des références incontournables. Les administrateurs système apprécient leur souplesse et leur efficacité pour gérer le stockage, surtout dans les environnements complexes.
Point fort constant, HP intègre progressivement la sécurité et la détection d’intrusion directement dans le noyau, développe le partitionnement sécurisé et met en place le contrôle d’accès par rôles. Ces éléments hissent HP-UX parmi les UNIX les plus sûrs du marché, un atout décisif pour les applications sensibles.
La virtualisation occupe une place croissante dans l’évolution du système. Les nPartitions arrivent d’abord, suivies des vPars (Virtual Partitions), et enfin des Integrity Virtual Machines. Ces technologies permettent aux entreprises d’optimiser leurs ressources matérielles et de consolider leurs serveurs. Le passage de PA-RISC à Itanium demande un effort technique considérable, mais HP préserve habilement la compatibilité applicative.
Le clustering avec HP Serviceguard, l’amélioration continue des outils d’administration maintiennent HP-UX dans la course face aux exigences changeantes des organisations. Mais Linux gagne du terrain et le cloud computing modifie les règles du jeu. La position de HP-UX sur le marché se trouve progressivement remise en question.
En 2017, HP annonce sa feuille de route jusqu’en 2025, rassurant sa base d’utilisateurs fidèles. Cette annonce répond aux inquiétudes des entreprises qui s’appuient sur HP-UX pour leurs opérations critiques. Le vieillissement du matériel compatible pose toutefois problème : les serveurs HP 9000 et Integrity sont difficiles à maintenir, les pièces détachées se raréfient.
Face à cela, de nouvelles approches émergent. L’émulation matérielle, notamment avec Charon-PAR de Stromasys, offre une alternative intéressante. Les entreprises peuvent continuer à faire tourner leurs applications HP-UX sur du matériel x86 moderne ou dans le cloud, échappant ainsi aux contraintes du matériel propriétaire vieillissant.
L’histoire de HP-UX témoigne d’une adaptation constante aux besoins des entreprises. Ses innovations en gestion des volumes logiques, sécurité et virtualisation ont inspiré l’évolution des systèmes d’exploitation professionnels. Sa réputation de fiabilité et de robustesse en a fait l’outil de choix pour de nombreuses applications critiques, de la finance à la santé en passant par l’industrie.
NFS
En 1985, Sun Microsystems publie une technologie qui va transformer la manière dont les ordinateurs partagent leurs fichiers à travers les réseaux : le Network File System, plus connu sous l’acronyme NFS. À cette époque, l’idée de faire dialoguer des machines distantes pour accéder à des données communes relevait du défi technique. Pourtant, cette innovation allait s’imposer comme l’une des pierres angulaires des systèmes distribués.
L’histoire commence avec SunOS 2.0, qui intègre la première version publique du protocole, NFSv2. Mais derrière cette sortie se cache une vision stratégique audacieuse de Sun. Là où d’autres entreprises auraient gardé leur technologie sous clé, Sun fait le pari de l’ouverture. Le protocole NFS ne définit que les formats des messages échangés entre clients et serveurs, laissant chacun libre de mettre en œuvre sa propre solution. Cette décision engendre un écosystème foisonnant : NetApp, EMC, IBM et bien d’autres se lancent dans la course, créant leurs propres serveurs NFS tout en respectant l’interopérabilité.
Cette stratégie tranche avec les approches précédentes. Le Remote File System de SVR3, par exemple, établissait une correspondance directe entre les appels système du client et ceux du serveur. L’approche fonctionnait, certes, mais révélait ses limites dès qu’un serveur tombait en panne : les clients se retrouvaient souvent bloqués, contraints de redémarrer pour reprendre leur activité.
Les ingénieurs de Sun prennent une direction radicalement différente. Ils conçoivent NFS comme un système « sans état », où le serveur ne conserve aucune trace des opérations en cours. Chaque requête arrive avec toutes les informations nécessaires à son traitement. Cette architecture, contre-intuitive au premier regard, recèle une élégance redoutable : si le serveur s’arrête brutalement, les clients n’ont qu’à renvoyer leurs requêtes une fois qu’il a redémarré. Pas de reconstruction d’état complexe, pas de synchronisation délicate.
Au cœur de cette mécanique se trouve le « file handle », véritable carte d’identité de chaque fichier sur le serveur. Dans NFSv2, ce descripteur rassemble un identifiant de volume, un numéro d’inode et un numéro de génération. Ce dernier élément évite les confusions quand le système réutilise des numéros d’inode : chaque fichier conserve ainsi son identité unique, même après suppression et recréation.
Bien sûr, interroger le serveur à chaque accès fichier aurait généré un trafic réseau insoutenable. NFS intègre donc des mécanismes de cache côté client, stockant temporairement les données et métadonnées consultées. Cette optimisation soulève immédiatement une question épineuse : comment garantir que tous les clients voient les mêmes informations ? La réponse tient dans le modèle « close-to-open ». Les modifications remontent vers le serveur à la fermeture des fichiers, tandis que les clients vérifient l’état des données à chaque ouverture. Cette approche privilégie la performance tout en maintenant une cohérence raisonnable.
Le protocole va connaître plusieurs métamorphoses au fil des années. En 1995, NFSv3 arrive avec des améliorations de performance, notamment une meilleure gestion des écritures asynchrones. Mais c’est NFSv4, standardisé en 2000, qui bouleverse véritablement l’architecture. Paradoxalement, cette version abandonne le principe sans état au profit d’un protocole orienté état, introduit des délégations de cache et améliore considérablement la compatibilité Internet.
La sécurité constituait le talon d’Achille des premières versions. Le système d’authentification reposait sur une confiance aveugle entre clients et serveur, utilisant simplement les identifiants numériques UNIX. Cette naïveté fut progressivement corrigée par l’intégration de Kerberos, puis par les mécanismes plus sophistiqués de NFSv4.
Mais le développement de NFS a nécessité la création de l’interface Virtual File System, une couche d’abstraction permettant la coexistence de différents systèmes de fichiers dans le noyau UNIX. Cette innovation, toujours présente dans les systèmes modernes, a grandement simplifié l’intégration de nouveaux systèmes de fichiers.
Les années 1990 voient naître une concurrence féroce. Microsoft pousse son Server Message Block, rebaptisé plus tard Common Internet File System, qui s’impose naturellement dans l’univers Windows. Des systèmes plus ambitieux comme Andrew File System ou, plus récemment, Lustre pour les supercalculateurs, proposent des fonctionnalités avancées pour des niches spécifiques.
Pourtant, NFS résiste à ces assauts. Sa simplicité relative, sa robustesse éprouvée et sa disponibilité quasi-universelle en font un choix de raison pour nombre d’organisations. Les constructeurs de stockage continuent d’innover autour du protocole. NetApp, notamment, développe des optimisations matérielles pour accélérer les écritures synchrones, historiquement le point faible de NFS.
L’héritage technique de NFS alimente encore la conception des systèmes distribués. Le principe architectural sans état, initialement controversé, inspire désormais de nombreux protocoles réseau. Les leçons apprises sur la cohérence de cache alimentent toujours la recherche académique et industrielle.
Alors que le stockage cloud redessine les contours de l’informatique, les défis que NFS a relevés demeurent d’actualité. Si les solutions évoluent, la distribution, la cohérence et la tolérance aux pannes sont des problématiques qui traversent le temps. L’aventure NFS démontre qu’une approche pragmatique privilégiant la robustesse sur la sophistication peut durer. Dans un domaine où les changements technologiques se succèdent à un rythme effréné, cette longévité force le respect.
POP3
En 1984, les communications électroniques connaissaient un problème que nous avons du mal à imaginer. Les messages arrivaient bien sur les serveurs grâce au protocole SMTP, mais comment les récupérer quand on ne disposait pas d’une connexion permanente à Internet ? Cette question préoccupait les ingénieurs de l’époque, qui cherchaient une solution pratique pour des utilisateurs encore habitués aux connexions téléphoniques intermittentes.
Le protocole POP (Post Office Protocol) apparut pour répondre à ce besoin. La première version vit le jour dès 1984. L’idée était simple : créer un système de « boîte aux lettres » électronique où les messages patientent jusqu’à ce que l’utilisateur vienne les chercher. POP2 suivit en 1985 avec quelques améliorations, et enfin POP3 arriva en 1988 en introduisant des mécanismes d’extension et des systèmes d’authentification plus solides.
Le fonctionnement de POP3 témoigne d’une simplicité qui primait sur la sophistication. Le client se connecte au serveur via le port TCP 110, s’identifie et utilise une poignée de commandes basiques. STAT pour connaître le nombre de messages, LIST pour voir leur taille, RETR pour en récupérer un, QUIT pour partir. Rien de plus, rien de moins. Cette économie de moyens a d’ailleurs largement contribué à son succès auprès des développeurs.
L’intégration de POP3 dans Microsoft Outlook et d’autres clients de messagerie grand public a scellé son destin. Le protocole s’est répandu comme une traînée de poudre, devenant la solution de référence pour les particuliers et les petites organisations. Sa logique correspondait parfaitement aux habitudes de l’époque : on relevait son courrier sur son ordinateur personnel, comme on vidait sa boîte aux lettres physique.
Mais cette approche cache un piège qui allait se révéler problématique. Par défaut, POP3 supprime les messages du serveur après les avoir téléchargés. Une fois rapatriés sur l’ordinateur du salon, impossible de les consulter depuis le bureau ou, plus tard, depuis un téléphone portable. Cette limitation, anodine dans les années 1990, est devenue un véritable handicap avec l’explosion de l’informatique mobile.
Face à ces contraintes, le protocole IMAP s’est imposé comme l’alternative moderne. Là où POP3 vide la boîte aux lettres du serveur, IMAP la conserve intacte. Les messages restent accessibles depuis n’importe quel appareil, organisés en dossiers, consultables hors ligne si nécessaire. IMAP propose aussi des fonctions de recherche côté serveur et le téléchargement partiel des gros messages.
Pourtant, POP3 refuse de disparaître. Sa légèreté technique reste un atout indéniable : il consomme peu de ressources serveur et s’utilise sans difficulté. Pour certains usages spécifiques, notamment quand l’utilisateur travaille principalement sur un seul appareil, POP3 conserve ses avantages. Les messages stockés localement se consultent sans connexion Internet et n’encombrent pas les serveurs.
Cette résistance illustre un phénomène intéressant dans l’évolution technologique. Deux philosophies s’affrontent ici : POP3 fait de l’ordinateur personnel le centre de l’univers numérique, tandis qu’IMAP privilégie une vision centralisée où le serveur est le référentiel unique. Chaque approche répond à des besoins différents et influence directement l’expérience utilisateur.
L’histoire récente a plutôt donné raison à IMAP. L’augmentation des capacités de stockage, la démocratisation des connexions haut débit permanentes et surtout l’usage simultané de multiples appareils ont rendu la synchronisation indispensable. Qui accepterait aujourd’hui de ne pouvoir consulter ses mails que depuis son ordinateur portable ?
Le protocole n’est pas resté figé pour autant. Des améliorations sécuritaires ont vu le jour, comme le mécanisme d’authentification APOP qui renforce la protection des échanges. Ces évolutions témoignent d’une capacité d’adaptation aux exigences contemporaines.
La standardisation par l’IETF a joué un rôle décisif dans la pérennité de POP3. Cette normalisation a garanti son interopérabilité et facilité son intégration dans une multitude de logiciels. Paradoxalement, c’est peut-être cette ubiquité qui explique sa survie : remplacer un standard si largement répandu demande des efforts considérables.
L’aventure de POP3 révèle qu’une solution technique n’a pas besoin d’être la plus avancée pour durer, elle doit surtout répondre efficacement à un besoin concret. POP3 a brillamment résolu le problème de la messagerie électronique pour les connexions intermittentes des années 1980. Que ce problème ait depuis largement disparu n’efface pas cette réussite initiale.
Cette persistance s’explique aussi par des facteurs très humains. La familiarité des utilisateurs avec un outil, la résistance au changement, la préférence pour des solutions éprouvées constituent autant de freins à l’adoption de nouvelles technologies. Les administrateurs système le savent bien : migrer vers un nouveau protocole demande du temps, de l’argent et de la formation.
Le parcours de POP3 s’inscrit dans une dynamique plus large de l’évolution d’Internet. Les protocoles naissent, évoluent, coexistent et parfois disparaissent selon des logiques qui dépassent les seules considérations techniques. L’histoire de la messagerie électronique montre comment différentes approches peuvent survivre côte à côte, chacune conservant sa niche d’utilisation.
Cette coexistence n’est pas un accident mais une caractéristique des écosystèmes technologiques matures. POP3 et IMAP répondent à des philosophies différentes de la gestion des données personnelles. L’un privilégie l’autonomie et le contrôle local, l’autre mise sur la centralisation et l’accessibilité universelle. Les deux visions restent légitimes selon le contexte d’usage.
Comprendre l’histoire de POP3, c’est saisir comment les technologies s’enracinent dans leur temps tout en gardant une capacité d’adaptation limitée. C’est aussi mesurer l’importance des choix de conception initiaux, qui peuvent déterminer le succès ou l’obsolescence d’un standard sur plusieurs décennies.
IBM PCjr
En 1983, IBM trône sur le marché professionnel avec son PC. Fort de ce succès, le géant américain lorgne vers l’informatique domestique, territoire jusque-là dominé par des machines comme l’Apple II ou le Commodore 64. L’idée germe d’adapter le PC pour les familles, en créant une version allégée baptisée « Peanut » en interne. Les rumeurs se multiplient dans la presse spécialisée pendant des mois, jusqu’à l’annonce officielle du PCjr le 1er novembre 1983.
L’attente est énorme. IBM dispose alors d’un budget de recherche qui dépasse celui de certains États, et son nom seul suffit à déclencher l’engouement du public. La machine reprend le processeur Intel 8088 du PC et conserve une compatibilité logicielle substantielle avec son grand frère. Cette filiation assumée vise deux objectifs : rassurer les acheteurs sur la pérennité de leur investissement et préserver les ventes du PC professionnel.
Deux versions voient le jour. Le modèle de base, affiché à 669 dollars, embarque 64 Ko de mémoire. Le modèle étendu grimpe à 1 269 dollars avec ses 128 Ko et son lecteur de disquette intégré. Ces prix placent d’emblée la machine dans le haut du panier, bien au-dessus de la concurrence directe.
La grande originalité du PCjr réside dans son clavier sans fil, une première mondiale pour un ordinateur personnel. La liaison infrarouge rend la machine utilisable jusqu’à 6 mètres de distance, transformant le salon en bureau improvisé. Mais cette innovation s’accompagne d’un choix discutable : des touches plates inspirées des calculatrices, dépourvues d’inscriptions. Les symboles et lettres apparaissent sur le châssis, entre les touches, compliquant la frappe et fatiguant les yeux.
Côté performances, IBM a doté sa machine de capacités graphiques remarquables. Plusieurs modes d’affichage coexistent, du 320×200 pixels en 4 couleurs au 640×200 en deux teintes. Le modèle étendu grimpe à 16 couleurs simultanées. Le son n’est pas en reste avec un circuit sophistiqué produisant trois voies de synthèse sur 7 octaves, complétées par un générateur de bruit blanc.
La commercialisation débute en janvier 1984, mais les livraisons restent confidentielles jusqu’en mars. IBM déploie une artillerie marketing sans précédent. Charlie Chaplin, déjà égérie du PC, revient dans les publicités télévisées. Plus de cent ouvrages paraissent avant la sortie effective, et quatre magazines spécialisés voient le jour. Rarement une machine aura bénéficié d’un tel battage médiatique.
Pourtant, les ventes peinent à décoller. Les premiers tests révèlent des failles béantes. Avec sa vitesse d’exécution divisée par deux par rapport au PC, le PCjr déçoit les utilisateurs habitués aux performances de son aîné. La mémoire, plafonnée à 128 Ko, limite sévèrement les possibilités d’évolution. L’architecture interne rend impossible l’ajout d’un second lecteur de disquette ou un disque dur. Les connecteurs propriétaires obligent à acheter des adaptateurs hors de prix pour raccorder des périphériques standards.
Face à ces critiques, IBM tente de redresser la barre en juillet 1984. Un nouveau clavier, plus conventionnel, remplace le modèle à touches plates. Les prix baissent sensiblement. Une campagne promotionnelle d’envergure accompagne les fêtes de fin d’année 1984, propulsant temporairement les ventes à 17% du marché domestique. Mais l’embellie est de courte durée : dès janvier 1985, ce chiffre rechute à 4%.
Le couperet tombe le 19 mars 1985. IBM annonce l’arrêt de la production, quinze mois seulement après le lancement commercial. Entre 100 000 et 350 000 machines invendues s’entassent dans les entrepôts. La firme brade les stocks, allant jusqu’à les offrir aux écoles achetant des PC. La facture s’élève à 45 millions de dollars de pertes.
Paradoxalement, cet échec commercial masque quelques réussites durables. Sierra On-Line développe spécialement pour le PCjr le jeu King’s Quest, qui révolutionne le genre de l’aventure graphique et lance une franchise légendaire. Tandy Computer s’inspire directement de l’expérience IBM pour créer son modèle 1000, corrigeant au passage les défauts majeurs : clavier professionnel, performances équivalentes au PC, possibilités d’extension. Ce Tandy 1000 rencontre un succès considérable et prolonge l’héritage technique du PCjr.
Une communauté d’amateurs entretient la mémoire de cette machine singulière. Des extensions comme la carte jrIDE ajoutent un disque dur et 640 Ko de mémoire aux exemplaires survivants. L’émulateur DOSBox ressuscite son catalogue logiciel. Au Japon, IBM avait tenté une variante appelée JX, développée avec Matsushita, mais ce projet concurrent a sombré encore plus avec seulement 8 000 exemplaires écoulés.
L’histoire du PCjr illustre les pièges d’une stratégie de dérivation mal maîtrisée. En bridant volontairement les capacités de leur machine domestique pour protéger les ventes du PC professionnel, les ingénieurs d’IBM ont créé un produit bancal, trop cher et trop limité face à une concurrence agile et inventive. La distribution exclusive via les réseaux professionnels, inadaptée au marché familial, a achevé de condamner une aventure qui marqua la fin des ambitions d’IBM sur l’informatique domestique.
GNU Emacs
En 1974, dans les couloirs du laboratoire d’intelligence artificielle du MIT, Richard Stallman s’attaque à un problème qui agace tous les programmeurs de l’époque : l’éditeur de texte TECO, pourtant puissant, reste d’un maniement laborieux. L’idée lui vient d’améliorer cet outil en s’inspirant de l’éditeur E développé à Stanford. Il ajoute un affichage en temps réel et repense le système de commandes.
Au début, cette amélioration ne change pas grand-chose à TECO. Les utilisateurs lancent le mode d’édition visuelle avec Control-R, modifient leur texte, puis en sortent pour d’autres tâches. Mais une fonctionnalité va tout transformer : la possibilité de redéfinir les commandes pour appeler des programmes écrits directement en TECO. Cette liberté déchaîne la créativité des utilisateurs qui développent leurs propres systèmes de commandes. TECMAC, MACROS, RMODE, TMACS, Russ-mode ou DOC fleurissent dans la communauté. L’usage évolue pour que la sortie du mode d’édition soit superflue, les nouveaux arrivants n’apprennent plus à manipuler TECO directement.
Pourtant, TECO montre ses limites. Il manque de structures de programmation décentes : pas de fonctions nommées, pas de variables propres. Les premiers éditeurs construits sur cette base sont vite ingérables. En 1976, le système TMACS tente d’ajouter ces fonctionnalités manquantes. L’expérience fonctionne, mais les performances souffrent. Stallman observe, analyse et décide de créer EMACS.
Son approche combine deux défis : enrichir TECO des bibliothèques et de l’auto-documentation nécessaires à une programmation lisible, tout en concevant un ensemble de commandes d’édition totalement nouveau. Il étudie les nombreux éditeurs basés sur TECO et cherche à minimiser le nombre de touches pour les opérations courantes. Fin 1976, le premier EMACS fonctionne.
Le développement se poursuit sur le PDP-10 de Digital Equipment Corporation, sous le système ITS du MIT. La plupart du nouveau code s’écrit en TECO, Stallman n’ajoutant au langage que le strict minimum : des optimisations pour les boucles de recherche, l’analyse d’expressions symboliques, et quelques nouvelles interfaces d’entrée-sortie. En 1977, l’intérêt grandit au-delà des murs du MIT. Mike McMahon de SRI International adapte EMACS au système Twenex de Digital. Une centaine de sites l’utilisent déjà.
Le terme « Emacs » se généralise alors, désignant toute une famille d’éditeurs extensibles. L’une des versions les plus marquantes naît sous UNIX, développée par James Gosling. Cette implémentation apporte deux nouveautés remarquables. D’abord, elle exploite les capacités de gestion des processus d’UNIX : filtrer du texte à travers des programmes externes, exécuter différents outils dans des fenêtres séparées. Ensuite, elle introduit MLisp (Mock Lisp), un langage d’extension indépendant du C utilisé pour l’implémentation.
Cette séparation entre langage d’implémentation et langage d’extension révolutionne l’usage. Avec MLisp, simple et élégant, les utilisateurs créent des extensions sans compilation ni édition de liens. Le cycle de développement s’accélère, encourageant les petites améliorations qui font toute la différence dans une interface utilisateur. Le langage offre une vision abstraite du texte, des chaînes, des processus et des fenêtres.
En 1984, Stallman lance GNU Emacs dans le cadre de son projet GNU. Cette fois, il choisit le vrai Lisp comme langage d’extension, plus puissant et cohérent que MLisp. GNU Emacs s’impose. Une communauté active développe des extensions pour tout : courrier électronique, forums de discussion, édition spécialisée selon les langages de programmation, interfaces de débogage.
Emacs prouve qu’un logiciel extensible et personnalisable peut s’adapter aux besoins de chacun. Ce modèle inspire nombre de développements ultérieurs : un cœur stable combiné à un langage d’extension puissant. Les environnements de développement modernes reprennent cette approche, intégrant des langages de programmation, la personnalisation d’interface et l’automatisation de tâches.
L’héritage d’Emacs se retrouve dans son auto-documentation, qui donne accès aux explications des commandes et fonctions depuis l’éditeur, se généralise pour l’aide en ligne des logiciels interactifs.
GNU Emacs continue d’évoluer, fidèle à sa philosophie d’origine. Dans un monde où les technologies sont obsolètes en quelques années, sa longévité témoigne de la justesse de ses principes : extensibilité, puissance et flexibilité. Il s’adapte aux besoins contemporains sans renier ce qui a fait son succès.
Microsoft Paint
Certains logiciels marquent les esprits par leur sophistication technique ou leurs prouesses innovantes. Microsoft Paint ne fait pas partie de cette catégorie. Pourtant, depuis 1985, cette modeste application de dessin accompagne des millions d’utilisateurs Windows et a façonné, presque malgré elle, toute une esthétique numérique.
L’aventure commence dans les années 1970, quand deux philosophies s’affrontent dans le domaine du graphisme informatique : les programmes vectoriels qui travaillent avec des objets géométriques précis, et les logiciels de peinture numérique qui manipulent directement les pixels. Dick Shoup, chez Xerox PARC, développe SuperPaint en 1973, un système qui capture les mouvements de la main sur une grille de pixels. Cette approche bitmap, moins rigoureuse que le vectoriel, offre une spontanéité qui rapproche l’ordinateur du geste artistique traditionnel.
Microsoft découvre cette voie quand Apple triomphe avec MacPaint sur ses premiers Macintosh. En 1985, Windows 1.0 inclut Windows Paint, codé par Dan McCabe. Le programme propose 24 outils dans une interface spartiate comme le crayon, le pinceau, les formes géométriques, et aussi quelques fonctions avancées comme les courbes de Bézier ou le dessin isométrique. Mais ces ambitions se heurtent aux réalités techniques de l’époque. Les ordinateurs peinent, les écrans manquent de résolution, et Windows 1.0 ne convainc pas vraiment.
Les années suivantes, Microsoft se détourne de Paint. L’entreprise collabore avec IBM sur le Presentation Manager, un projet de système d’exploitation graphique qui finalement avorte. Paint stagne dans Windows 2.0, victime de cette réorientation stratégique qui ne mène nulle part.
Le réveil arrive avec Windows 3.0 en 1990. Microsoft abandonne l’idée de développer toutes ses applications en interne et fait appel aux éditeurs existants. Microsoft Paintbrush remplace Windows Paint, basé sur PC Paintbrush de ZSoft, créé par Mark Zachmann. La métamorphose est spectaculaire : la couleur fait son apparition avec 256 teintes disponibles, la palette d’outils migre sur le côté gauche, et les couleurs s’alignent en bas de l’écran. L’interface gagne en cohérence et en lisibilité.
Windows 95 transforme définitivement Paint. Rebaptisé Microsoft Paint (ou MS Paint pour les intimes), il est un composant standard de chaque installation Windows. Cette omniprésence coïncide avec l’explosion d’Internet, qui mute d’un média textuel vers un univers visuel. Entre 1995 et 2000, près d’un Américain sur deux découvre Internet, et Paint est leur premier contact avec la création graphique numérique.
L’outil développe alors sa signature esthétique particulière. L’utilisation exclusive de la souris, combinée à l’approche bitmap, produit des lignes tremblotantes, des contours approximatifs, des zones de couleur aux bordures franches. Ces « défauts » techniques créent un langage visuel reconnaissable entre mille. Là où d’autres logiciels visent la perfection, Paint assume ses imperfections et les transforme en caractéristiques expressives.
Curieusement, Microsoft laisse Paint dans cet état pendant plus de dix ans. De 1995 à 2007, les fonctionnalités évoluent peu. Cette inertie s’explique par un changement de paradigme : Windows n’a plus besoin de séduire par ses applications intégrées. Paint remplit son rôle d’outil basique pour les tâches simples, sans prétendre concurrencer Photoshop ou Illustrator.
Dans les années 2000, Internet voit naître les premiers mèmes visuels. Les communautés de Something Awful ou 4chan adoptent le côté esthétique « amateur » de Paint comme un étendard. Les Rage Comics de 2008 incarnent parfaitement ce mouvement : des bandes dessinées rudimentaires aux personnages expressifs, entièrement réalisées avec Paint. L’imprécision est volontaire, l’amateurisme revendiqué.
Microsoft tente bien de moderniser l’expérience en 2012 avec Fresh Paint, une application tactile qui simule la peinture traditionnelle. Mais cette version lisse et sophistiquée masque sa nature numérique au lieu de l’assumer. Pendant ce temps, des outils comme Rage Maker prolifèrent pour faciliter la création de mèmes dans le style Paint authentique.
L’histoire de Paint révèle comment les contraintes façonnent la créativité. Ses limitations techniques, qui auraient pu constituer des handicaps, sont presque devenues des atouts distinctifs. Paint n’a jamais figuré dans les palmarès d’innovation, mais il a sa propre empreinte sur la culture visuelle.
Cette trajectoire éclaire l’importance des technologies « ordinaires » dans l’évolution informatique. Les innovations spectaculaires accaparent l’attention, pendant que des outils modestes structurent discrètement nos pratiques quotidiennes. Paint survit dans Windows, témoin d’une période où créer numériquement devenait accessible au plus grand nombre, avec ses maladresses et sa poésie particulière.
X Window System
En 1984, au MIT, deux projets apparemment sans rapport allaient converger vers une transformation majeure dans l’affichage graphique des systèmes UNIX. D’un côté, le système Argus du Laboratory for Computer Science cherchait un environnement de débogage pour ses applications distribuées. De l’autre, le projet Athena devait gérer des milliers de stations de travail équipées d’écrans bitmap. Face à la diversité du matériel – machines Digital VSlOO, postes IBM et autres architectures hétérogènes – les ingénieurs comprirent qu’il fallait repenser entièrement l’approche de l’affichage graphique.
L’inspiration vint de Stanford, où Paul Asente et Brian Reid avaient créé le système W comme alternative à VGTS. W autorisait déjà l’accès transparent au réseau pour l’affichage, grâce au mécanisme de communication synchrone du système V. Ce système proposait des fenêtres textuelles pour l’émulation de terminaux ASCII et des fenêtres graphiques construites sur un mécanisme simple de listes d’affichage. Asente et Chris Kent adaptèrent W pour les machines VSlOO aux laboratoires de recherche Digital, mais quelques jours d’expérimentation révélèrent les limites de cette approche : un système de fenêtres hiérarchique accessible via réseau serait bien plus efficace, à condition de ne pas le limiter à des modes d’application spécifiques.
X Window System naît de cette réflexion. Son architecture client-serveur inverse la logique habituelle : le serveur contrôle l’affichage physique tandis que les applications clientes dialoguent avec lui via un protocole asynchrone transporté sur un flux d’octets fiable. Cette inversion conceptuelle change tout. Il est désormais possible d’exécuter un programme sur n’importe quelle machine du réseau et utiliser n’importe quel écran, sans se préoccuper de l’architecture matérielle ou du système d’exploitation sous-jacent. Les performances restent remarquables : une VAXStation-II/GPX affiche 19 500 caractères par seconde et trace 3 500 vecteurs courts par seconde, que ce soit en local ou via le réseau.
Parmi les innovations introduites par le système à l’époque, les fenêtres s’organisent en hiérarchie arbitraire, se redimensionnent et se chevauchent librement. Le serveur encapsule toutes les dépendances matérielles, rendant le protocole de communication totalement indépendant des périphériques. Une application fonctionne sans modification sur un terminal monochrome ou un écran couleur sophistiqué. Le protocole minimise la latence réseau grâce aux requêtes asynchrones et à une gestion fine des événements.
La gestion des couleurs révèle la sophistication technique de X. Le modèle abstrait proposé s’adapte aux écrans monochromes comme aux affichages pseudo-couleur les plus avancés. Plusieurs applications peuvent partager une table de couleurs commune tout en conservant leurs propres espaces colorimétriques. Cette approche autorise la coexistence harmonieuse d’applications graphiques multiples sans conflit de ressources.
En 1987, DEC intègre X dans ses produits commerciaux, validant l’approche technique. Le MIT distribue le code source complet sans restriction, accélérant l’adoption par les universités et les entreprises. Cette stratégie open source avant la lettre transforme X en standard de fait. Chercheurs académiques et ingénieurs commerciaux collaborent au développement, créant un écosystème riche et diversifié. Le système se retrouve porté sur plus de sept architectures matérielles différentes et seize types d’affichages.
Les années 1990 voient naître GNOME et KDE, environnements de bureau qui démontrent la robustesse de X11. Mais les limites apparaissent : le système de polices s’avère insuffisant pour les besoins modernes, les capacités graphiques 2D demandent des améliorations, l’accessibilité pour les malvoyants reste difficile à mettre en œuvre.
Xft résout les problèmes typographiques en autorisant l’accès direct aux fichiers de polices et en introduisant l’anticrénelage. Fontconfig sépare la gestion des caractères du système de fenêtrage, simplifiant l’internationalisation et l’installation de nouvelles polices. Cairo apporte des fonctionnalités graphiques avancées : courbes de Bézier, composition d’images translucides, rendu vectoriel haute qualité. Ces évolutions s’intègrent naturellement grâce à l’architecture modulaire de X.
Le protocole Composite transforme la gestion visuelle en autorisant fenêtres translucides et effets sophistiqués. XEvIE améliore l’accessibilité en interceptant et transformant les événements d’entrée. Ces extensions maintiennent X pertinent face aux exigences croissantes des interfaces modernes, sans rompre la compatibilité avec l’existant.
La sécurité ne fut jamais négligée. X implémente des mécanismes d’authentification et d’autorisation sophistiqués dès sa conception. Les terminaux autonomes demandent des services de connexion à des hôtes distants de manière sécurisée avec X Display Manager Control Protocol. Les administrateurs peuvent centraliser la gestion des accès tout en préservant l’expérience utilisateur des terminaux traditionnels.
Le modèle client-serveur de X et sa conception modulaire inspirent les architectures logicielles contemporaines. En établissant un standard pour les systèmes distribués graphiques, X façonne l’évolution des interfaces utilisateur sur Linux et les systèmes apparentés.
En 2004, la fondation X.org reprend la gouvernance du projet et poursuit le développement. Les innovations continuent : support des écrans haute résolution, accélération matérielle via OpenGL, adaptation aux technologies d’affichage émergentes. Wayland apparaît comme alternative pour certains cas d’usage, mais X Window System demeure en 2024 le système de fenêtrage de référence sur de nombreuses plateformes UNIX et Linux.
Les principes architecturaux de X – modularité, extensibilité, indépendance matérielle – conservent leur pertinence dans le développement des interfaces contemporaines. Plus qu’une technologie, X illustre l’efficacité de l’approche collaborative où universités, entreprises et communautés coordonnent leurs efforts pour créer une infrastructure durable.
Intel 80386
Quand Intel lance le 80386 en octobre 1985, personne ne s’attend vraiment à ce que ce processeur révolutionne l’informatique. Dans les couloirs de l’entreprise, on le considère plutôt comme un produit de transition, une solution d’attente jusqu’à l’arrivée du véritable projet phare : l’iAPX 432. Ce processeur ambitieux accumule pourtant les retards, et le 386 doit combler le vide. L’histoire retiendra que c’est finalement ce « bouche-trou » qui transformera durablement le paysage informatique.
Le projet démarre début 1982 sous la direction de John Crawford, l’architecte en chef. Son équipe d’une dizaine d’ingénieurs fait face à un dilemme cornélien : faut-il rompre avec le passé pour créer un processeur avant-gardiste ou maintenir la compatibilité avec l’existant au risque de brider les performances ? Les discussions se succèdent. Les clients d’Intel sont clairs : ils ne veulent pas réécrire leurs logiciels. La compatibilité totale au niveau du code objet s’impose donc naturellement.
Cette contrainte n’empêche pas l’équipe de Crawford de voir grand. Le 386 abandonne définitivement l’architecture 16 bits de ses prédécesseurs pour passer au 32 bits. Registres, unité arithmétique et logique, bus internes : tout passe à la nouvelle dimension. Le processeur peut désormais adresser directement 4 gigaoctets de mémoire physique, une capacité qui paraît alors gigantesque. Les systèmes d’exploitation modernes comme UNIX ou OS/2 feront de la gestion de la mémoire virtuelle avec pagination leur réalité.
La fabrication du 386 nécessite des innovations techniques de premier plan. Intel abandonne la technologie NMOS au profit du CMOS, réduisant la consommation électrique et améliorant la qualité des signaux. Mais c’est surtout le processus de fabrication à deux niveaux de métal qui pose des problèmes. Cette technologie nouvelle génère des défauts de production importants. Les ingénieurs découvrent que la « zone interdite » entre les pistes métalliques complique énormément la production. Les rendements chutent, les coûts explosent, et l’équipe doit sans cesse ajuster les paramètres.
Les moyens de développement restent modestes. Une dizaine d’ingénieurs travaillent avec des outils souvent artisanaux. L’équipe prend une décision audacieuse en adoptant UNIX comme système d’exploitation de développement, malgré l’absence d’autorisation officielle. Cette transgression se révèle payante. L’automatisation du placement et du routage des composants, réalisée grâce à un logiciel développé par un étudiant de Berkeley, accélère considérablement la conception.
Le lancement commercial réserve une surprise. Compaq, et non IBM, sort le premier ordinateur personnel équipé du 386. IBM ne contrôle plus seul l’évolution technologique du marché, c’est une rupture dans cette industrie. Le Compaq Deskpro 386 est une référence qui force IBM à réagir. Intel découvre que la demande dépasse ses prévisions initiales.
Pour répondre à cette demande tout en maîtrisant les coûts, Intel développe le 386SX. Cette version simplifiée conserve l’architecture 32 bits interne mais utilise un bus externe 16 bits. Le compromis séduit les constructeurs d’ordinateurs bon marché qui peuvent proposer une architecture moderne à prix réduit. Le 386SX rencontre un succès commercial important, démocratisant l’accès aux capacités 32 bits.
Les performances du 386 évoluent avec la première version cadencée à 16 MHz qui atteint 5 MIPS. Les versions ultérieures sont capables de monter jusqu’à 33 MHz pour 9,9 MIPS. Ces chiffres représentent un bond considérable par rapport aux processeurs précédents. Le 386 transforme l’informatique personnelle en permettant l’exécution fluide d’applications graphiques et de systèmes multitâches.
Le succès du processeur s’étend bien au-delà du marché des PC. Les stations de travail UNIX l’adoptent massivement. L’industrie l’intègre dans des systèmes de contrôle automatisé. La recherche scientifique en fait un composant de référence pour ses équipements. Plus surprenant, le 386 trouve sa place dans l’espace : le télescope Hubble et la sonde SAMPEX emportent des versions durcies du processeur.
Les premiers appareils mobiles sophistiqués adoptent le 386. Le BlackBerry 950 et le Nokia 9000 Communicator intègrent des versions basse consommation du processeur. Cette longévité exceptionnelle témoigne de la robustesse de l’architecture conçue par Crawford et son équipe. Le 386 reste en production pendant des années, bien après l’arrivée de ses successeurs.
L’influence du 386 dépasse son seul succès commercial. Intel adopte suite à cette expérience une stratégie de développement alternant innovations architecturales et optimisations de fabrication. Cette approche, baptisée plus tard « tick-tock », guide encore la stratégie de l’entreprise. Chez Intel, le principe de compatibilité ascendante établi avec le 386 garantit la pérennité des investissements logiciels, un véritable dogme.
Le 386 illustre parfaitement comment l’histoire de l’informatique procède parfois par accidents heureux. Conçu comme une solution temporaire, ce processeur finit par établir les bases de l’informatique moderne. Son héritage perdure dans chaque ordinateur personnel, rappelant qu’en technologie, les solutions pragmatiques l’emportent souvent sur les projets les plus ambitieux.
AppleTalk
Au début des années 1980, Apple Computer se lance dans un défi ambitieux : créer un protocole réseau en parallèle du développement du Macintosh. L’idée paraît audacieuse, mais elle répond à un besoin concret. Les utilisateurs veulent partager leurs fichiers et leurs imprimantes sans s’embarrasser de configurations techniques complexes. AppleTalk naît de cette volonté de simplifier l’informatique en réseau.
Le protocole cache sa sophistication derrière une interface d’une transparence remarquable. Les ordinateurs communiquent entre eux sans que l’utilisateur ait besoin de comprendre les mécanismes sous-jacents. Cette philosophie tranche avec les systèmes de l’époque, souvent rébarbatifs et réservés aux experts. Apple mise sur l’invisibilité des opérations techniques : seul le résultat compte.
Deux versions principales voient le jour. La Phase 1 s’adresse aux petits groupes de travail mais souffre de limitations contraignantes. Impossible de dépasser 135 machines sur un segment, et les réseaux étendus restent hors de portée. Ces restrictions freinent l’expansion d’AppleTalk dans les entreprises. La Phase 2 corrige ces défauts en autorisant jusqu’à 253 machines par segment et en gérant les réseaux étendus. Cette évolution ouvre la voie à des déploiements plus ambitieux.
La flexibilité d’AppleTalk s’exprime dans ses déclinaisons physiques. LocalTalk exploite les paires torsadées propriétaires d’Apple, tandis que TokenTalk s’appuie sur les réseaux Token Ring. EtherTalk tire parti de l’Ethernet, et FDDITalk exploite les fibres optiques FDDI. Cette modularité autorise les transitions technologiques sans refonte complète du système.
L’architecture protocolaire s’organise avec méthode. Le DDP (Datagram Delivery Protocol) transporte les paquets d’un point à un autre. L’AARP (AppleTalk Address Resolution Protocol) établit la correspondance entre adresses logiques et physiques. Le RTMP (Routing Table Maintenance Protocol) maintient les informations de routage à jour. Chaque protocole assume sa fonction sans empiéter sur les autres.
La gestion des noms repose sur des mécanismes ingénieux. Le NBP (Name Binding Protocol) associe des noms compréhensibles aux adresses techniques, tandis que le ZIP (Zone Information Protocol) organise les réseaux en zones logiques. L’AEP (AppleTalk Echo Protocol) vérifie que les machines restent accessibles. L’ATP (AppleTalk Transaction Protocol) garantit la fiabilité des échanges pour les applications critiques comme le partage de fichiers ou l’impression.
L’adressage dynamique constitue l’une des innovations d’AppleTalk. Un identifiant est automatiquement attribué à chaque machine à sa connexion. Cette approche évite les conflits d’adresses tout en simplifiant l’administration. L’adresse combine trois éléments : un numéro de réseau sur 16 bits, un identifiant de nœud sur 8 bits, et un numéro de socket sur 8 bits pour désigner le service concerné.
Le concept de zone révolutionne l’organisation des réseaux. Il est possible de regrouper des machines selon des critères fonctionnels plutôt que géographiques. Le service comptabilité peut ainsi rassembler ses ressources dans une zone unique, même si les ordinateurs sont dispersés dans différents bâtiments. Cette flexibilité séduira de nombreux administrateurs réseau.
La transmission s’effectue sans établissement de connexion préalable. Les paquets voyagent indépendamment vers leur destination. Les protocoles de haut niveau ajoutent ensuite les mécanismes de fiabilité nécessaires selon les besoins. Cette architecture modulaire facilite l’évolution et la maintenance du système.
Cisco enrichit progressivement son intégration d’AppleTalk. Il ajoute le support des différentes versions d’EtherTalk, la compatibilité avec les VLAN, l’intégration aux protocoles WAN comme Frame Relay. Ces extensions repoussent les limites du protocole bien au-delà des intentions initiales d’Apple. L’encapsulation des paquets RTMP sur IP fait aussi transiter AppleTalk sur Internet.
Parent pauvre d’AppleTalk, le protocole délègue la sécurité aux applications, choix discutable à l’heure actuelle mais cohérent avec la philosophie des années 1980. Cisco tente de combler cette lacune avec ses listes de distribution, mécanisme rudimentaire mais utile pour contrôler la propagation des informations de routage.
L’implémentation Cisco présente une particularité surprenante : elle refuse de transmettre certains paquets avec des adresses locales identiques. Cette restriction, contraire aux spécifications d’Apple, vise à préserver l’intégrité des tables d’adresses. Le constructeur privilégie la stabilité du réseau à la conformité stricte aux standards.
Le déclin d’AppleTalk s’amorce dans les années 1990. TCP/IP s’impose progressivement comme le standard universel des communications réseau. Sa nature ouverte et son adoption par Internet scellent le sort des protocoles propriétaires. En 2009, Mac OS X v10.6 Snow Leopard abandonne définitivement AppleTalk. Apple boucle ainsi la boucle en se tournant vers les standards ouverts qu’elle avait initialement boudés.
Avec le protocole AppleTalk, un réseau sophistiqué reste simple d’usage. L’auto-configuration et la découverte automatique des services, concepts centraux d’AppleTalk, inspirent encore les développements actuels. Bonjour, le successeur spirituel d’AppleTalk chez Apple, perpétue cette philosophie de la simplicité dans un monde TCP/IP.
NTP
Dans l’univers des systèmes distribués, synchroniser l’heure entre machines distantes relève du défi technique permanent. Le Network Time Protocol a résolu cette équation avec une élégance qui traverse les décennies. Son origine remonte à 1979, quand une démonstration publique révèle Internet au grand jour via une liaison satellite transatlantique. Cette première apparition marque déjà l’importance que prendra la coordination temporelle dans l’architecture réseau.
Deux ans plus tard, en 1981, les Internet Engineering Notes consacrent leur référence IEN-173 à cette technologie de synchronisation. Le RFC-778 suit avec la première spécification publique du protocole. La conception initiale prend une forme inattendue : elle s’intègre directement dans le protocole de routage Hello, documenté sous RFC-891. Cette approche hybride perdure plusieurs années au sein de Fuzzball, un système d’exploitation expérimental qui servait de banc d’essai.
L’année 1985 marque la naissance officielle de NTP version 0. David L. Mills développe sa version dans Fuzzball tandis que Louis Mamakos et Michael Petry travaillent simultanément sur une implémentation UNIX à l’Université du Maryland. Leurs codes respectifs laissent des traces durables dans les logiciels actuels, témoignage de la solidité de leurs choix architecturaux. Le RFC-958 documente cette première version formelle, se concentrant sur l’en-tête des paquets NTP et les calculs de décalage et de délai qui demeurent inchangés aujourd’hui.
À cette époque, les contraintes matérielles dictent les performances. Les réseaux et ordinateurs modestes limitent la précision à une dizaine de millisecondes sur Ethernet. À titre de comparaison, les liaisons transatlantiques maintiennent généralement une précision sous les 100 millisecondes.
La version 1 émerge trois ans plus tard avec le RFC-1059. Ce document constitue le premier exposé complet du protocole et de ses algorithmes, incluant les premières versions des mécanismes de filtrage, sélection et discipline d’horloge. Ces développements s’appuient sur une série d’expérimentations documentées dans le RFC-956, où la théorie de l’algorithme de filtrage prend forme. Cette version introduit les modes client/serveur et symétrique, ainsi que l’utilisation du champ version dans l’en-tête des paquets.
En 1991 paraît le premier article de transaction académique consacré à NTP Version 1. Ce document présente pour la première fois le modèle complet à la communauté technique : architecture, protocole et algorithmes forment un ensemble cohérent dont les principes restent d’actualité. La reconnaissance scientifique du protocole est atteinte avec cette publication.
NTP Version 2 arrive en 1989 avec le RFC-1119. Dennis Fergusson à l’Université de Toronto le reconstruit intégralement pour respecter fidèlement la spécification. Cette version apporte deux innovations majeures : le protocole de message de contrôle NTP pour administrer serveurs et clients, et le système d’authentification cryptographique basé sur la cryptographie symétrique.
La spécification de NTP Version 3 paraît en 1992. Ses 113 pages incluent une annexe remarquable proposant une analyse formelle d’erreur accompagnée d’un budget détaillé couvrant toutes les contributions d’erreur depuis la source primaire jusqu’au client final. Ces travaux établissent les fondements des statistiques d’erreur maximale et estimée, caractérisant rigoureusement la qualité de synchronisation.
Lars Mathiesen à l’Université de Copenhague entreprend alors une révision minutieuse de la version 2 pour la conformer à la spécification version 3. Plus d’une année d’échanges intensifs entre spécification et implémentation aboutit à un modèle formel cohérent, processus exemplaire de convergence entre théorie et pratique.
Les années suivantes voient NTP continuer d’évoluer. Nouvelles fonctionnalités et révisions algorithmiques s’accumulent tout en préservant l’interopérabilité avec les versions antérieures. Cette période voit naître le Simple Network Time Protocol (SNTP) version 4, protocole simplifié compatible avec NTP sur IPv4, IPv6 et OSI, mais dépourvu des algorithmes sophistiqués d’atténuation et de discipline de son aîné.
Le déploiement mondial de NTP évoque l’esprit radio amateur. Chaque nouveau pays découvert utilisant NTP représente une victoire symbolique pour les développeurs. La satisfaction atteint son comble quand le laboratoire national des normes d’un pays établit un serveur NTP primaire connecté directement à son ensemble national de temps et de fréquence.
Maintenir scripts de configuration et bibliothèques de correctifs constitue une tâche ingrate mais nécessaire. Harlan Stenn, bénévole dévoué, gère actuellement ce processus grâce aux outils modernes d’autoconfiguration. Les nouvelles versions subissent d’abord les tests du réseau de recherche DCnet, puis ceux d’environnements plus larges comme CAIRN avant leur publication sur www.ntp.org.
Les progrès technologiques transforment radicalement les performances de NTP. La précision passe de centaines de millisecondes dans l’Internet tumultueux des années 1980 à des dizaines de nanosecondes dans l’Internet du nouveau millénaire. Cette évolution mêle leçons historiques et reprises technologiques, conservant ces résonances radio amateur à chaque nouveau pays apparaissant sur Internet avec NTP actif.
L’arrivée des horloges atomiques abordables révolutionne le domaine. Les modèles au rubidium, avec leur dérive d’une microseconde par jour, démocratisent l’accès à une référence temporelle de haute qualité. Les oscillateurs OCXO offrent la meilleure alternative pour obtenir des horloges précises en boîtier compact. La température exerçant l’influence principale sur le taux d’oscillation du cristal, la thermostatisation contrôle et compense ces variations, limitant la dérive horlogère quotidienne.
NTP conserve le titre d’application distribuée la plus ancienne en fonctionnement continu sur Internet. Son développement se poursuit face aux nouveaux besoins de synchronisation temporelle. Centres de données et cloud computing exigent une précision temporelle toujours plus fine, où chaque nanoseconde compte pour les applications modernes. Cette quête perpétuelle de précision temporelle illustre parfaitement l’évolution d’Internet, d’un réseau expérimental à l’infrastructure critique de notre société numérique.
Microsoft Excel
En 1978, Dan Bricklin et Bob Frankston développent VisiCalc, vendu à près d’un million d’exemplaires et révolutionne la micro-informatique. Microsoft flaire le potentiel du marché, et en 1982 la firme de Redmond lance MultiPlan, qui adopte le système d’adressage R1C1 plutôt que le format A1 de VisiCalc. Le logiciel trouve son public sur les systèmes CP/M mais échoue face à Lotus 1-2-3 sur MS-DOS. Cette défaite pousse Microsoft à repenser sa stratégie.
Excel voit le jour en 1985, mais uniquement sur Macintosh. Le choix paraît audacieux : Microsoft mise sur l’interface graphique, les menus déroulants et la souris quand la plupart des programmes fonctionnent encore en mode texte. Cette vision se révèle payante. La version Windows débarque en 1987, accompagnée d’une version allégée du système d’exploitation pour les machines peu puissantes.
Les années suivantes transforment Excel en véritable couteau suisse du calcul. En 1990, la version 3.0 ajoute les barres d’outils, le dessin, les graphiques en 3D et les fonctions de plan. Excel 4.0, en 1992, améliore l’ergonomie et introduit la poignée de recopie, ce petit carré qui duplique des formules dans d’autres cellules d’un simple glissement. Un geste devenu si naturel que les utilisateurs peinent à imaginer s’en passer.
Les classeurs multi-feuilles changent la donne avec Excel 5.0 en 1993, mais c’est surtout l’arrivée du langage VBA qui révolutionne l’usage. Les utilisateurs découvrent qu’ils peuvent enregistrer leurs actions répétitives sous forme de macros. Du jour au lendemain, Excel dépasse le simple calcul pour devenir un outil de programmation accessible.
Le passage à l’architecture 32 bits avec Excel 95 apporte stabilité et rapidité. Excel 97 nous gratifie de l’assistant Office, ce trombone animé qui agace autant qu’il aide, et perfectionne la validation des données. Plus sophistiquée, l’interface VBA attire une communauté grandissante de développeurs.
Excel 2000 améliore le presse-papiers multiple et ajoute la fonction d’auto-réparation. Excel 2002 introduit la récupération de fichiers après plantage, feature salvatrice pour quiconque a perdu des heures de travail. Excel 2003 mise sur le support XML et les plages « liste ».
2007 bouleverse les habitudes. Le « Ruban » remplace les menus traditionnels, déconcertant les utilisateurs aguerris mais séduisant les novices. Les formats XLSX et XLSM, basés sur XML, modernisent le stockage des données. Excel 2010 ajoute les graphiques sparkline, ces mini-graphiques intégrés dans les cellules, et des filtres plus puissants.
Cette évolution technique masque une réalité plus complexe. Excel s’impose certes dans les entreprises pour l’analyse financière, la gestion de projet et la modélisation statistique, mais sa facilité d’usage cache des pièges redoutables. Les erreurs se glissent facilement dans les formules complexes, et leurs conséquences peuvent être dramatiques.
JPMorgan Chase en fait l’amère expérience en 2012. Une erreur dans un modèle Excel calculant les risques coûte 6,2 milliards de dollars à la banque. Fidelity Magellan connaît un incident similaire en 1995 : un comptable oublie un signe moins devant une perte de 1,3 milliard de dollars, faussant complètement les estimations de dividendes. Ces accidents rappellent qu’Excel, malgré sa simplicité apparente, manipule souvent des enjeux considérables.
Cette double nature fait la richesse et la faiblesse d’Excel. D’un côté, il démocratise l’analyse de données et rend accessible le calcul numérique à des millions d’utilisateurs non spécialistes. De l’autre, il génère une dépendance parfois dangereuse dans des domaines où la précision compte. Les secteurs de la finance structurée et de l’analyse quantitative lui doivent leur essor, mais aussi quelques-unes de leurs plus cuisantes déconvenues.
Les versions récentes tentent de concilier ces exigences contradictoires. L’intelligence artificielle s’invite dans les formules, les outils de visualisation se sophistiquent, les capacités de traitement s’étoffent pour gérer des volumes de données toujours plus importants. Excel s’adapte au cloud computing et au travail collaboratif, domaines où il accusait un retard certain.
Microsoft ne lâche pas prise. Les développements récents montrent une volonté de maintenir Excel au cœur des pratiques professionnelles modernes. L’intégration de langages de programmation avancés comme Python, l’amélioration des analyses et l’adaptation aux nouveaux formats témoignent de cette ambition.
Plus de quarante ans après VisiCalc, Excel incarne l’évolution des outils informatiques professionnels. Son parcours reflète les transformations du travail de bureau et l’informatisation progressive de la société. Sa persistance dans un monde technologique en perpétuel mouvement démontre sa capacité unique à répondre aux besoins fondamentaux de traitement de l’information, malgré ses imperfections et les risques qu’il génère.
Microsoft Windows
En 1983, Bill Gates annonce que Microsoft travaille sur une interface graphique. L’idée n’a rien de vraiment nouveau, Xerox a déjà exploré cette voie au PARC, Apple vient de sortir Lisa et prépare le Macintosh. Mais Microsoft veut sa part du gâteau et compte bien transformer l’expérience utilisateur sur PC.
Novembre 1985 voit naître la première version de Windows. Le résultat déçoit. Cette couche graphique posée sur MS-DOS propose des fenêtres, des menus déroulants et quelques icônes. Les utilisateurs, habitués à taper leurs commandes, peinent à adopter cette nouveauté. Les ventes restent confidentielles.
Deux ans plus tard, Windows 2.0 corrige plusieurs défauts. Les fenêtres peuvent désormais se chevaucher au lieu de s’aligner sagement en mosaïque. Microsoft collabore alors avec IBM sur OS/2 et cherche une cohérence visuelle entre ses différents projets. Cette version passe largement inaperçue.
Le décollage véritable survient en 1990 avec Windows 3.0. Cette fois, Microsoft tient un produit qui fonctionne. L’interface affiche 16 couleurs, exploite les capacités des processeurs 386 et propose trois composants qui vont marquer l’histoire : le Gestionnaire de Programmes, le Gestionnaire de Fichiers et le Gestionnaire d’Impression. Ces outils simplifient la vie des utilisateurs et rendent l’ordinateur accessible au grand public. Les ventes s’envolent et rattrapent celles d’Apple.
Windows 3.1 arrive en 1992 avec une stabilité renforcée. La technologie OLE fait ses débuts en apportant l’intégration des objets d’une application dans une autre. Les premiers éléments multimédias font leur apparition sur PC. Windows for Workgroups 3.11 ajoute les fonctions réseau indispensables aux entreprises qui commencent à connecter leurs machines.
Microsoft développe en parallèle Windows NT, un système pensé pour les professionnels. Sorti en 1993, NT rompt avec MS-DOS et propose une architecture entièrement nouvelle. L’entreprise vise le marché des serveurs, chasse gardée d’UNIX. La robustesse de NT lui vaut une certification C2 du gouvernement américain, gage de sérieux dans le monde de l’entreprise.
Août 1995 marque une date dans l’histoire de l’informatique personnelle. Windows 95 débarque avec son menu Démarrer et sa barre des tâches, deux éléments qui vont devenir familiers à des millions d’utilisateurs. Le « Plug and Play » simplifie l’installation de matériel. L’architecture 32 bits améliore les performances. Microsoft dépense 300 millions de dollars en publicité et utilise « Start Me Up » des Rolling Stones pour accompagner le lancement. L’informatique entre définitivement dans les foyers.
Windows 98 peaufine la formule l’année suivante. Internet prend de l’importance et Microsoft facilite les connexions. L’USB fait ses débuts, le format FAT32 augmente la capacité des disques durs. Le système gagne en stabilité et propose des outils de maintenance automatique.
En février 2000, Windows 2000 unifie enfin les branches grand public et professionnelle. Basé sur NT, ce système apporte la fiabilité tant attendue. Active Directory révolutionne la gestion des réseaux d’entreprise. Le multiprocesseur est une réalité sur les postes de travail.
Windows XP, sorti en 2001, parachève cette évolution. L’interface graphique « Luna » modernise l’apparence du système. La compatibilité matérielle s’améliore, le multimédia trouve sa place. XP combine la convivialité des versions domestiques avec la solidité des éditions professionnelles. Cette version va rester populaire pendant une décennie.
Les années 2000 voient naître de nouvelles préoccupations. Internet se démocratise mais apporte son lot de virus, de chevaux de Troie et autres maliciels. Microsoft réagit avec des correctifs réguliers et renforce la sécurité. Le Service Pack 2 de XP introduit un pare-feu intégré et un centre de sécurité. La guerre contre les menaces informatiques commence.
Cette histoire technique s’accompagne de controverses commerciales. L’intégration d’Internet Explorer dans Windows suscite des poursuites antitrust aux États-Unis et en Europe. Les concurrents dénoncent les pratiques de Microsoft et sa position dominante. Ces batailles juridiques marquent les années 1990 et 2000.
L’évolution de Windows reflète celle de l’informatique personnelle tout entière. Du mode texte austère de MS-DOS aux interfaces colorées modernes, Microsoft a su maintenir la compatibilité avec les applications existantes tout en innovant. Cette continuité explique en partie la domination persistante du système.
Windows équipe 72% des ordinateurs personnels dans le monde en 2025. Quatre décennies après sa création, le système de Microsoft résiste aux assauts de ses concurrents. Les smartphones et tablettes ont bousculé le marché, mais Windows garde sa place sur les bureaux et dans les entreprises.
Amstrad PCW
En 1985, l’informatique personnelle européenne connut un tournant inattendu avec l’arrivée de l’Amstrad PCW. Loin des machines de jeux colorées qui dominaient alors le marché domestique, cet ordinateur britannique adoptait une philosophie radicalement différente : faire du traitement de texte son unique raison d’être.
Alan Sugar, patron d’Amstrad, imagine un ensemble intégré comprenant clavier, écran, unité centrale, et imprimante matricielle. Son cahier des charges tient en quelques mots : simple, abordable, efficace. Le Z80 cadencé à 4 MHz constituait le cœur technique du système. Ce processeur 8 bits permettait aux développeurs de s’appuyer sur leur expertise existante plutôt que de partir de zéro avec le 6502 à la mode. La mémoire de 256 Ko du PCW 8256 pouvait être doublée sur le modèle supérieur, une capacité respectable pour l’époque. Mais c’est le choix du format de disquette 3 pouces qui marqua le plus l’histoire de cette machine : propriétaire, il la protégeait temporairement de la concurrence tout en hypothéquant son avenir face au 3,5 pouces qui s’imposait ailleurs.
L’écran monochrome de 720×256 pixels, d’un vert caractéristique, affichait exclusivement du texte. Cette limitation assumée correspondait parfaitement à l’usage prévu : LocScript, le logiciel de traitement de texte intégré, transformait chaque PCW en machine à écrire électronique perfectionnée. Le système d’exploitation CP/M ouvrait l’accès à une bibliothèque logicielle existante, héritée des machines professionnelles précédentes.
Le succès commercial dépassa toutes les prévisions. À 400 livres sterling avec l’imprimante matricielle incluse, le PCW séduisit un public que personne n’avait vraiment ciblé auparavant : secrétaires indépendantes, petites entreprises, écrivains, administrations locales. En France notamment, ces machines blanches et vertes colonisèrent les bureaux des professions libérales et des services publics. Plus d’un million d’exemplaires trouvèrent preneur entre 1985 et 1990, un chiffre remarquable pour un produit aussi spécialisé.
Les évolutions successives affinèrent le concept initial sans le trahir. Le PCW 9512 de 1987 troqua l’imprimante matricielle contre une imprimante à marguerite, produisant enfin une qualité « courrier » aux documents produits. Sa robe entièrement blanche modernisait l’esthétique tout en conservant l’ergonomie éprouvée. Le PCW 9256, ultime version de 1991, apporta quelques améliorations techniques mineures sans révolutionner l’usage.
LocScript évoluait lui aussi, intégrant progressivement les accents français, une correction orthographique rudimentaire, la gestion de tableaux simples. Des logiciels tiers enrichirent l’écosystème : comptabilité, gestion de fichiers clients, avec quelques jeux pour les moments de détente. L’interface LocoLink permettait d’échanger des documents avec les PC sous MS-DOS, une ouverture précieuse quand ces derniers commencèrent à se démocratiser.
Pourtant, les faiblesses du concept apparurent au fil du temps. Pas de couleur, pas de polices proportionnelles à l’écran, une lenteur perceptible face aux machines 16 bits. Les compatibles PC, devenus abordables au début des années 1990, offraient plus de polyvalence pour un prix comparable. Le PCW, prisonnier de sa spécialisation, perdait progressivement sa pertinence commerciale.
Cette machine prouva qu’un ordinateur personnel pouvait choisir l’efficacité contre la sophistication, la simplicité contre la puissance brute. De nos jours, de nombreux PCW fonctionnent parfaitement, témoignage de leur robustesse constructive exceptionnelle.
L’Amstrad PCW incarne une vision particulière de l’informatisation : plutôt qu’imposer un système complexe et généraliste, mieux vaut concevoir l’outil adapté à un besoin précis. Cette approche permit à des milliers d’utilisateurs de découvrir le traitement de texte numérique sans intimidation technique. Secrétaires, artisans, associations : tous trouvèrent dans cette machine blanche leur première porte d’entrée vers l’informatique professionnelle.
Cette réussite européenne, face à la standardisation américaine du PC, montre qu’il existait plusieurs voies possibles pour démocratiser l’informatique. Amstrad explora l’une d’elles avec succès, prouvant qu’une demande existait pour des solutions simples et abordables.
Atari 520 ST
Après avoir mené Commodore International vers le succès du Commodore 64, Jack Tramiel quitte l’entreprise en 1983 suite à une guerre des prix acharnée contre Texas Instruments qui l’a épuisé. Cette rupture le conduit à fonder Tramel Technology Ltd avec ses fils et quelques fidèles, notamment Shiraz Shivij, l’un des cerveaux derrière le C64.
La petite équipe se lance dans l’aventure d’un ordinateur personnel 16 bits à prix abordable. Le choix du processeur s’avère délicat : le National Semiconductor NS32000 ne tient pas ses promesses de performances. C’est finalement le Motorola 68000 qui emporte la décision, malgré son coût plus élevé. Pendant ce temps, Atari Inc. sombre. Le krach du jeu vidéo de 1983 fait perdre 10 000 dollars par jour à Warner Communications, sa maison mère. Jack Tramiel flaire l’aubaine et rachète la division grand public d’Atari en juillet 1984 pour 240 millions de dollars en actions.
L’équipe technique accomplit le développement du 520ST en cinq mois seulement, un petit miracle qui paraît irréalisable aujourd’hui. Le nom raconte l’histoire de la machine : 520 Ko de mémoire vive et cette architecture « Sixteen/Thirty-two » qui mélange les mondes 16 et 32 bits. Microsoft propose bien d’adapter Windows, mais les calendriers ne collent pas. Digital Research sauve la mise avec une licence de GEM, qui donnera à l’Atari son interface graphique si caractéristique.
Au Consumer Electronics Show de janvier 1985, les spécifications du 520ST font sensation. Le Motorola 68000 à 8 MHz cache une architecture interne 32 bits derrière un bus externe 16 bits. Trois modes graphiques cohabitent : du 320 x 200 en 16 couleurs pour les jeux, du 640 x 200 en 4 couleurs pour un compromis équilibré, et surtout ce mode monochrome haute résolution 640 x 400 qui va séduire les professionnels.
Les ingénieurs d’Atari ont glissé quelques trouvailles dans leur machine. Ces ports MIDI intégrés pour la modique somme de 75 cents, grâce à des puces Motorola déclassées, vont transformer le 520ST en instrument de musique électronique. Le lecteur de disquettes 3,5 pouces stocke 360 Ko, une capacité respectable quand la plupart des concurrents s’obstinent encore avec le 5,25 pouces. Le système d’exploitation TOS charge d’abord depuis une disquette avant de migrer définitivement en ROM.
Mai 1985 voit arriver les premiers 520ST dans les magasins, devançant de justesse l’Amiga 1000 de Commodore. Jack Tramiel joue la carte du prix agressif : 799 dollars avec un moniteur monochrome, 999 dollars en couleur. Face aux machines professionnelles qui dépassent allègrement les 2 000 dollars, l’argument porte. Plus de 50 000 unités trouvent preneur en six mois, principalement en Europe où l’accueil est chaleureux.
La machine séduit des publics inattendus. Les musiciens découvrent les joies du MIDI avec des logiciels comme Cubase et Logic Pro qui feront carrière. Les programmeurs amateurs s’amusent avec GFA BASIC et STOS. Quant aux professionnels de la PAO, ils apprécient ce mode haute résolution, d’autant que l’émulation Macintosh tourne plus vite sur ST que sur un vrai Mac !
Le succès européen ne doit rien au hasard. Ce design compact et intégré correspond aux goûts du Vieux Continent. Le slogan « Power Without the Price » fait mouche au Royaume-Uni, conquis par les ordinateurs domestiques abordables. Aux États-Unis, c’est plus compliqué : Jack Tramiel entretient des relations exécrables avec les revendeurs, qui le lui rendent bien.
L’influence du 520ST dépasse ses simples performances techniques. Sa capacité à lire les disquettes MS-DOS facilite les échanges avec l’univers PC. Ces ports MIDI standardisés créent tout un écosystème qui survit encore aujourd’hui. Jean-Michel Jarre, Fatboy Slim ou Madonna l’utilisent en studio et sur scène, créant une légende qui colle à la machine.
Le catalogue logiciel s’étoffe. Dungeon Master débarque en 1987 et révolutionne le jeu de rôle en vue subjective. Des éditeurs comme Batteries Included explorent les possibilités graphiques avec des programmes comme DEGAS. La « demo scene » naissante pousse la machine dans ses retranchements, créant des œuvres d’art numérique qui défient toute logique technique.
La gamme évolue au fil des versions. Le 520STM ajoute un modulateur RF pour se brancher sur une télévision. Le 520STFM intègre alimentation et lecteur dans un boîtier repensé, plus familial. TOS migre progressivement de la disquette vers la ROM, simplifiant l’utilisation.
En 1993, la production du 520ST s’arrête, emportée par la vague des PC compatibles IBM. Pourtant, la machine garde ses fidèles, surtout chez les musiciens qui apprécient sa faible latence MIDI. Elle incarne cette époque où l’innovation technique rimait avec démocratisation de la technologie, quand une poignée d’ingénieurs pouvait encore bousculer l’industrie informatique.
Toshiba T1100
En avril 1985, Toshiba bouleverse l’informatique personnelle avec le T1100. Pour la première fois, un ordinateur portable offre une compatibilité totale avec l’IBM PC. Cette machine de 4 kg marque la naissance de l’informatique nomade moderne.
L’époque paraît pourtant peu propice à pareille innovation. Les ordinateurs personnels, Apple II depuis 1977 et IBM PC depuis 1981, restent cloués aux bureaux. Quelques constructeurs tentent bien de créer des machines transportables : le Portable I de Compaq pèse 12,5 kg en 1982, tandis que Seiko sort son HX-20/HC-20 de 1,6 kg la même année, suivi par le PC8201A de NEC en 1983. Mais ces tentatives se heurtent à un dilemme technique : soit miniaturiser au maximum avec des architectures propriétaires incompatibles, soit viser la compatibilité IBM PC en acceptant l’encombrement et les limitations.
Les équipes de Toshiba refusent ce compromis. Leur devise « anywhere, anytime, anyone » exprime une ambition claire : transformer l’ordinateur de bureau en compagnon mobile. L’entreprise théorise cette approche comme une « révolution sur le bureau », un passage d’une informatique centrée sur la machine vers une utilisation centrée sur l’humain. Trois objectifs guident le développement : abandonner les architectures fermées, rendre l’ordinateur vraiment portable et permettre l’usage de logiciels standard sans programmation spécifique.
La réalisation technique tient du prodige d’ingénierie. Les circuits intégrés CMOS remplacent la technologie NMOS gourmande en énergie. Là où l’IBM PC mobilise près de 100 circuits pour l’affichage, le T1100 s’en contente de cinq. Cette optimisation radicale produit un appareil compact doté d’une autonomie inédite. L’énergie est un terrain d’innovation. Toshiba crée de toutes pièces un système de charge-décharge et un logiciel de contrôle énergétique. Ces développements jetteront les bases de la fonction resume introduite en 1989 sur le modèle J3100SS001, puis du standard ACPI élaboré avec Microsoft et Intel.
L’écran LCD à fort contraste, monté sur support inclinable, résulte d’études poussées sur l’ergonomie visuelle. Mais le vrai défi commercial surgit ailleurs : le choix des disquettes 3,5 pouces. Alors que l’IBM PC fonctionne avec du 5,25 pouces, Toshiba mise sur le format compact. Seulement les éditeurs rechignent à distribuer leurs logiciels sur ce support encore marginal, malgré le travail des équipes commerciales qui mènent une campagne de persuasion intensive pour les convaincre d’adopter le 3,5 pouces.
La stratégie marketing rompt avec les habitudes du secteur. Fini les argumentaires techniques ! Toshiba montre concrètement comment travailler en mobilité avec les mêmes logiciels qu’au bureau fixe. Cette approche pragmatique séduit les professionnels non-techniciens et élargit considérablement le marché.
Le succès commercial confirme cette intuition. Une étude révèle deux attentes distinctes : la portabilité d’un côté, plus de puissance et de capacité de l’autre. Toshiba répond en janvier 1986 avec deux nouveaux modèles. Le T2100 embarque un processeur i8086 et deux lecteurs 3,5 pouces. Le T3100 monte en gamme avec un i80286 et un disque dur de 10 mégaoctets. Ces machines nécessitent une alimentation secteur, mais PC Week valide ce choix en reconnaissant l’existence d’un marché pour les portables branchés. Le magazine Byte qualifie le T3100 de « Roi des portables ». En 1987, Toshiba atteint environ 40% de parts sur les 130 000 ordinateurs portables vendus en Europe.
L’impact économique dépasse toutes les prévisions. En 2008, le marché des écrans LCD de moins de 17 pouces représente 15 milliards de dollars. Celui des disques durs 2,5 pouces et moins atteint 19 milliards. Les batteries lithium-ion pour équipements mobiles génèrent 12 milliards de chiffre d’affaires. Un an plus tard, les ventes de portables dépassent celles des machines de bureau sur un marché estimé à 150 milliards de dollars.
Le T1100 démontre qu’une approche centrée sur l’utilisateur transforme les secteurs technologiques. En privilégiant compatibilité logicielle, portabilité et simplicité plutôt que les performances brutes, Toshiba fait sortir l’ordinateur des services informatiques pour l’installer dans les mallettes des cadres. Cette démocratisation de l’informatique mobile annonce l’omniprésence actuelle des appareils portables dans nos vies.
Aldus PageMaker
En 1984 à Seattle, Paul Brainerd quitte son poste chez Atex pour fonder Aldus Corporation. Il n’est pas un inconnu dans le monde de l’édition. Journaliste de formation, il a supervisé la modernisation des systèmes du Minneapolis Star and Tribune avant de rejoindre ce fabricant de systèmes informatiques destinés aux professionnels de l’édition. Cette expérience lui fait toucher du doigt un problème : les équipements de composition coûtent une fortune, souvent plusieurs centaines de milliers de dollars, et restent inaccessibles aux petites structures.
Avec son interface graphique, le Macintosh d’Apple ouvre des perspectives inédites. Brainerd pressent qu’il est possible de démocratiser les outils de mise en page. Il rassemble une petite équipe d’ingénieurs et développe un prototype en six mois. Trouver des financements s’avère autrement plus compliqué : sur cinquante sociétés de capital-risque contactées, une seule, Vanguard, accepte de parier sur ce projet. À l’époque, les investisseurs se méfient des entreprises de logiciels, jugées trop risquées dans un secteur où Microsoft n’a pas encore fait son entrée en bourse.
Le 13 juillet 1985, PageMaker 1.0 voit le jour. Cette date n’a rien d’un hasard : elle suit de sept mois le lancement de l’imprimante LaserWriter d’Apple. Brainerd a compris que son logiciel doit s’appuyer sur les capacités du langage PostScript d’Adobe, intégré dans cette imprimante, pour produire des documents de qualité professionnelle. Il parle du « tabouret à trois pieds » de la publication assistée par ordinateur, expression qu’il invente d’ailleurs lors d’une réunion avec ses investisseurs fin 1984.
Ce terme de « publication assistée par ordinateur » fait mouche. Simple, efficace, il résume parfaitement l’ambition du projet : mettre les outils de mise en page professionnelle à la portée de tous. L’interface de PageMaker traduit cette philosophie. Le logiciel simule une vraie table de montage où l’utilisateur place et déplace textes et images à sa guise. La palette flottante d’outils forme une innovation marquante, donnant accès aux fonctions principales. Le principe WYSIWYG garantit que ce qui apparaît à l’écran correspond exactement au résultat imprimé.
Le succès dépasse toutes les prévisions. Les utilisateurs affluent de secteurs inattendus. Des églises se mettent à produire des bulletins paroissiaux parfois tirés à plus de 600 000 exemplaires. Steve Jobs avait poussé pour maintenir le prix sous les 200 dollars, mais les 495 dollars finalement retenus s’avèrent judicieux : cette tarification dégage les marges nécessaires au développement continu et au support technique.
Aldus distribue aussi FreeHand, un logiciel de dessin vectoriel créé par Altsys, puis rachète Silicon Beach Software avec sa gamme d’applications grand public. Ces acquisitions construisent progressivement une offre complète d’outils de création graphique.
La concurrence réagit. Ventura Publisher débarque en 1986 sur PC avec une approche différente, fondée sur les feuilles de style et adaptée aux documents longs. QuarkXPress gagne du terrain dans le secteur professionnel. Microsoft tente sa chance mais doit retirer son produit en raison de défauts techniques rédhibitoires.
Au-delà du logiciel, Aldus façonne les standards du secteur. Steve Carlson développe chez Aldus le format TIFF (Tagged Image File Format), qui est alors la référence pour l’échange d’images numériques. L’entreprise crée plus tard l’OPI (Open Prepress Interface) pour fluidifier l’intégration avec les systèmes d’impression professionnelle.
En 1990, les marges s’érodent sous la pression concurrentielle et l’évolution des circuits de distribution. PageMaker se complexifie, tiraillé entre les besoins des utilisateurs occasionnels et les exigences des professionnels. Cette complexité croissante complique le développement et alourdit les coûts.
En 1994, Aldus fusionne avec Adobe Systems. Cette opération, préparée avec un soin méticuleux, unit les technologies des deux entreprises. L’absorption se déroule remarquablement bien, créant un géant de la création graphique numérique.
PageMaker a prouvé qu’un outil informatique accessible pouvait supplanter des équipements spécialisés hors de prix. Il a établi des conventions d’interface utilisateur, mais il a surtout ouvert l’accès à la publication de qualité professionnelle à des individus et des organisations qui n’avaient jamais pu s’offrir ce luxe auparavant.
Par la suite, le code de PageMaker nourrit Adobe InDesign, son héritier spirituel qui règne désormais sur le marché de la PAO. Paul Brainerd, lui, s’est tourné vers la philanthropie après la fusion avec Adobe. Sa fondation Brainerd œuvre pour la protection de l’environnement dans le Nord-Ouest américain.
Cette histoire montre comment une vision nette, soutenue par une exécution technique rigoureuse et un calendrier favorable, peut bouleverser tout un secteur. Elle souligne aussi l’importance des standards ouverts et de la coopération entre entreprises pour faire émerger de nouveaux marchés.
IBM AIX
Pendant les années 1970, UNIX se répand dans les universités, mais sans version commerciale standardisée. Chaque installation demandait d’adapter le code source au matériel local. Cette contrainte technique pousse à la création de multiples variantes, chacune reflétant les spécificités de son environnement.
IBM s’intéresse au phénomène UNIX et lance AIX (Advanced Interactive eXecutive) en 1986, développé avec l’aide d’Interactive Systems Corporation. Le nom provient d’ailleurs d’ISC, qui avait déjà créé le système PC-IX pour les ordinateurs personnels d’IBM.
IBM jonglait alors avec deux architectures Power distinctes. D’un côté, OS/400 équipait une gamme de machines, de l’autre, AIX prenait ses quartiers sur la station de travail IBM 6150 RT en 1986. L’AS/400 suivait l’année d’après avec OS/400.
La véritable montée en puissance d’AIX arrive en 1990 avec la Version 3, rebaptisée AIX/6000. Elle accompagne la plateforme RS/6000 qui enterre définitivement l’IBM RT. Cette génération RS/6000 inaugure l’ère des microprocesseurs POWER et PowerPC chez IBM. AIX trouve enfin sa machine de prédilection.
1994 marque une étape technique importante avec AIX 4, qui introduit le multitraitement symétrique sur les premiers serveurs RS/6000 SMP. Le système mûrit jusqu’à la version 4.3.3 en 1999, pendant qu’IBM repense sa stratégie produits.
L’an 2000 bouleverse l’organisation d’IBM. La société unifie ses gammes de serveurs sous la bannière eServer : AS/400 se renomme iSeries, RS/6000 se transforme en pSeries. Au-delà du marketing, cette restructuration cache une réalité technique. L’arrivée du processeur POWER4 en 2001-2002 rapproche les plateformes matérielles. Les différences entre systèmes « p » et « i » se limitent désormais aux couches logicielles.
POWER5 franchit un pas supplémentaire en 2004 en rendant le System i5 570 rigoureusement identique au System p5 570. AIX 5.3 débarque en août, tirant parti de cette standardisation. POWER6 suit en mai 2007, accompagné d’AIX 6.1 en novembre. IBM pousse la logique jusqu’au bout en avril 2008 en fusionnant ses deux lignes sous l’appellation Power Systems. Un seul matériel, trois choix de système : IBM i, AIX ou Linux.
Les années 2010 s’enchaînent à un rythme soutenu. POWER7 arrive en février 2010, AIX 7.1 en septembre. POWER7+ débarque en août 2012, puis POWER8 en juin 2014. Ce dernier processeur rompt avec les habitudes : chaque cœur gère huit threads matériels en parallèle, une architecture massivement multithreadée qui exploite des caches volumineux pour maximiser les débits mémoire et d’entrées-sorties.
AIX 7.2, annoncé en octobre 2015, apporte une fonction remarquable : Live Kernel Update. Les correctifs du noyau s’appliquent désormais sans perturber les applications en cours d’exécution. Cette version nettoie aussi les composants obsolètes et restructure le réseau avec bos.net.tcp.client, mais elle exige impérativement POWER7 ou une génération ultérieure.
POWER9 débarque en 2016 avec sa gravure 14 nm et ses 3,9 GHz de fréquence. Les gains de performance atteignent 50% par rapport à POWER8, et doublent face à POWER7+. Sur AIX 7.2 TL 3, le mode SMT8 s’active automatiquement, exploitant au maximum les capacités du processeur.
Aujourd’hui, AIX équipe les infrastructures les plus critiques. Finance, industrie, distribution, télécommunications, santé, administration et secteur public : partout où la fiabilité ne se négocie pas. Le système a prouvé sa capacité à évoluer avec les nouvelles architectures matérielles sans sacrifier la compatibilité avec l’existant.
Cette longévité technique illustre parfaitement la stratégie d’IBM : faire converger ses gammes de serveurs vers une plateforme unifiée tout en préservant l’investissement logiciel des clients. AIX incarne cette continuité dans l’innovation, héritière d’UNIX mais résolument tournée vers l’avenir de l’informatique d’entreprise.
Eiffel
23 septembre 1985. Dans les bureaux d’Interactive Software Engineering, une petite société californienne de Santa Barbara, Bertrand Meyer travaille sur un projet interne qui va bousculer bien des habitudes dans l’univers de la programmation orientée objet. Ce jour-là naît Eiffel, mais il faudra attendre le milieu de l’année 1986 pour voir fonctionner la première version opérationnelle.
Meyer ne part pas de rien. Depuis 1973, il manipule les concepts orientés objet avec Simula 67. Les travaux de Jean-Raymond Abrial sur la spécification formelle le fascinent, particulièrement sa version originale du langage Z. Liskov, Zilles et Guttag ont défriché le terrain des types de données abstraits, un domaine sur lequel Meyer a planché. La lignée prestigieuse Algol 60, Algol W, Pascal et Ada forge l’architecture générale du nouveau langage, tandis que Floyd, Hoare et Dijkstra apportent leur expertise sur la preuve de programmes et la sémantique axiomatique.
Cette alchimie particulière produit quelque chose d’inhabituel. En septembre 1986, à la première conférence « Object-Oriented Programming, Systems, Languages & Applications » de Portland, la présentation d’Eiffel fait sensation. Les concepts développés surpassent ce qui existe alors, tant dans l’industrie que dans les laboratoires de recherche. La transformation suit avec la commercialisation du compilateur interne dès décembre 1986. Les entreprises et universités peuvent enfin s’en emparer.
La version 2 arrive en 1988, année qui voit paraître « Object-Oriented Software Construction », le livre qui va propulser Eiffel sur le devant de la scène. L’édition de 1997, considérablement étoffée, confirme l’influence grandissante du langage. La version 2.3 de 1990 marque l’apogée de la technologie originale d’ISE.
Meyer prend alors une décision audacieuse : en 1990, ISE libère la définition du langage dans le domaine public. Cette ouverture déclenche une floraison de projets, compilateurs et bibliothèques éclosent un peu partout. Le langage traverse une période de refonte générale, se simplifie par endroits, s’enrichit par d’autres, mais conserve son âme originelle. Cette stabilité remarquable fait d’Eiffel un langage qui n’a guère changé depuis sa conception de 1985.
Entre 1990 et 1993, l’équipe d’ISE repense entièrement sa technologie. La version 2.3 sert d’amorce pour cette reconstruction complète. ISE Eiffel 3 débarque en 1993 avec son environnement de développement graphique, suivi par ISE Eiffel 4 en 1997 et Eiffel 5 en 2001. Ces versions apportent leur lot de nouveautés : les agents empruntent aux langages fonctionnels, l’introspection scrute les programmes, le mécanisme Precursor simplifie l’héritage répété, la création d’objets gagne en souplesse et les mécanismes de conversion s’affinent.
La notation BON surgit en 1995 avec l’ouvrage « Seamless Object-Oriented Software Construction » de Waldén et Nerson. Cette Business Object Notation étend Eiffel vers l’analyse et la conception, dans un langage que comprennent gestionnaires, analystes et architectes système.
L’écosystème grandit. Object Tools en Allemagne développe Visual Eiffel, héritier d’Eiffel/S. L’Université de Nancy propose Small Eiffel en version libre, Halstenbach GmbH commercialise sa propre solution allemande. Les bibliothèques foisonnent : graphisme 3D, analyse lexicale avec Gobo, interfaces DirectX, calcul à précision variable. Chaque domaine trouve sa solution.
Les secteurs d’activité découvrent les vertus d’Eiffel. La banque l’adopte, la finance s’y intéresse, la comptabilité l’expérimente. Les télécommunications, la santé, la CAO-FAO, la simulation et le calcul scientifique lui font confiance. Le système Rainbow de la banque CALFP raconte cette success story : conçu initialement pour le trading de produits dérivés, il finit par superviser la majorité des opérations bancaires.
L’université s’empare du langage avec enthousiasme. Nombreuses sont les facultés qui en font le premier langage enseigné aux étudiants. D’autres l’intègrent à différents niveaux du cursus, encouragées par les packages attractifs des éditeurs.
Pourquoi ce nom, Eiffel ? Meyer rend hommage à Gustave Eiffel, l’ingénieur qui ne s’est pas contenté d’ériger la tour parisienne. L’armature métallique de la Statue de la Liberté à New York, une gare ferroviaire à Budapest, autant de constructions durables sorties de ses ateliers. La Tour Eiffel, entamée en 1887 pour l’Exposition universelle de 1889, respecte délais et budget. Elle traverse les hostilités politiques, résiste aux tentatives de destruction, trouve de nouveaux usages avec la radio et la télévision. Construite à partir de motifs robustes et élégants, combinés et variés pour produire un résultat puissant, elle incarne parfaitement ce qu’Eiffel accomplit dans l’univers logiciel.
Le « Design by Contract » forge l’identité d’Eiffel. Cette approche fait évoluer la construction logicielle en la fondant sur des contrats entre clients et fournisseurs. Obligations et bénéfices mutuels s’explicitent par des assertions, établissant clairement les responsabilités de chaque composant. Cette philosophie produit des logiciels plus fiables et maintenables, où chaque élément connaît son rôle et ses limites.
Erlang
En 1986, dans les bureaux du laboratoire d’informatique d’Ericsson Telecom AB, Joe Armstrong se trouve confronté à un casse-tête technique : comment programmer des applications de téléphonie qui défient toutes les conventions de l’époque ? Les commutateurs téléphoniques traitent des milliers d’appels simultanés, ces opérations se distribuent naturellement sur plusieurs machines, et la moindre panne fait les gros titres. Rien à voir avec une application de bureau qui plante sans conséquence.
Armstrong explore d’abord différentes pistes, développe des prototypes en Smalltalk, invente une notation graphique pour décrire les opérations téléphoniques. C’est Roger Skagervall qui fait la remarque décisive : cette notation ressemble à du Prolog. Armstrong bascule alors vers ce langage, et c’est ainsi que naît véritablement Erlang.
Le contexte technique d’Ericsson influence la conception du nouveau langage. PLEX, créé par Göran Hemdahl pour programmer les commutateurs AXE, impose ses contraintes : modifier le code sans arrêter le système, éviter à tout prix les erreurs de pointeurs qui avaient handicapé les générations précédentes. Armstrong et son équipe intègrent ces leçons dans l’ADN d’Erlang.
Robert Virding rejoint le projet, et ensemble ils développent les premières versions du langage, toujours en Prolog. Le test de vérité arrive en 1989 avec le projet ACS/Dunder. L’équipe développe 25 fonctionnalités téléphoniques en Erlang, soit environ un dixième de celles du MD110. Les résultats dépassent leurs espérances : selon les fonctionnalités, le développement s’accélère de 3 à 25 fois par rapport à PLEX.
Ces succès attirent l’attention, et Erlang gagne en maturité. Bogumil Hausman développe en 1993 le système Turbo Erlang, rebaptisé BEAM (Bogdan’s Erlang Abstract Machine), qui améliore drastiquement les performances. Claes Wikström ajoute le support de la distribution, permettant l’exécution sur plusieurs machines.
Mais c’est un événement inattendu qui va propulser Erlang hors des murs d’Ericsson. En 1998, Ericsson Radio Systems interdit l’utilisation du langage pour les nouveaux développements. Cette décision, qui aurait pu signer l’arrêt de mort d’Erlang, produit l’effet inverse. En décembre, Ericsson libère le code source, et une partie de l’équipe originale quitte l’entreprise pour fonder Bluetail AB, société qui utilisera Erlang comme technologie de base.
L’architecture technique d’Erlang reflète sa mission initiale. Le langage structure les programmes autour de processus concurrents qui ne partagent aucune mémoire et communiquent par messages asynchrones. Ces processus appartiennent au langage, pas au système d’exploitation, ce qui les rend remarquablement légers. Si l’un d’eux échoue, les autres continuent leur travail comme si de rien n’était.
Le système de réception de messages constitue l’une des innovations les plus remarquables d’Erlang. Un processus peut attendre sélectivement certains types de messages tout en laissant les autres en attente. Cette approche simplifie énormément la programmation de protocoles de communication complexes, un atout considérable dans le monde des télécommunications.
L’AXD301, commutateur ATM développé par Ericsson, est la vitrine technologique d’Erlang. En 2001, ce système compte 1,13 million de lignes de code réparties dans 2 248 modules. Il atteint la disponibilité rêvée de 99,9999999%, démontrant que le langage est en capacité de gérer des projets industriels d’envergure avec une fiabilité exceptionnelle.
Le système OTP (Open Telecom Platform), développé à partir de 1996, enrichit l’écosystème Erlang. Cette collection de bibliothèques et de modèles de conception propose des « behaviours », abstractions qui encapsulent des motifs courants comme le modèle client-serveur ou la gestion d’événements. OTP transforme Erlang d’un langage expérimental en plateforme industrielle.
L’arrivée des processeurs multicœurs confirme rétrospectivement la pertinence des choix initiaux. Le modèle de concurrence sans partage de données s’adapte naturellement au parallélisme matériel. Les programmes Erlang exploitent les architectures multicœurs sans modification, un avantage considérable à une époque où les autres langages peinent à tirer parti de cette évolution.
Au-delà des télécommunications, Erlang trouve sa place dans des domaines variés. Le serveur de messagerie ejabberd (Erlang Jabber Daemon) gère des millions de connexions simultanées, CouchDB stocke et distribue des données à grande échelle, RabbitMQ route des messages entre applications distribuées. Ces succès valident l’approche d’origine : les contraintes des systèmes téléphoniques se retrouvent dans de nombreuses applications contemporaines.
Le langage répond initialement aux exigences particulières d’Ericsson, mais ses solutions se révèlent pertinentes pour de nombreux problèmes actuels. Les choix architecturaux initiaux, le modèle de concurrence par passage de messages notamment, semblaient radicaux mais permettent aujourd’hui d’exploiter naturellement les architectures parallèles modernes.
IMAP
En 1970, qui aurait imaginé que l’échange de messages électroniques deviendrait l’une des applications les plus universelles d’Internet ? À cette époque, les systèmes de messagerie ressemblaient à des carnets d’adresses internes, confinés aux utilisateurs partageant une machine.
Les années 1980 transformèrent radicalement le paysage informatique. L’arrivée des stations de travail individuelles bouscula les habitudes établies. Les utilisateurs réclamaient désormais un accès nomade à leurs messages, depuis n’importe quel poste, tout en gardant une vision unifiée de leur courrier. Le protocole POP, lancé en 1984, répondait partiellement à cette attente en téléchargeant les messages localement. Mais cette solution montrait vite ses limites dès qu’il s’agissait de gérer les courriels stockés sur le serveur.
Mark Crispin observait ces évolutions depuis l’Université de Stanford. En 1986, il développa IMAP, une approche radicalement différente qui plaçait le serveur au cœur de la gestion des messages. La première version publique, IMAP2, vit le jour en 1988. L’innovation majeure tenait dans la capacité de manipuler directement les messages sur le serveur, sans téléchargement préalable. Cette architecture autorisait la création de multiples dossiers et proposait des fonctions de recherche sophistiquées dans le contenu des courriels.
L’architecture technique d’IMAP reposait sur une séparation claire entre deux composants : le système de gestion des messages (MHS) qui orchestrait les transferts, and l’agent utilisateur (UA) qui dialoguait avec l’interface. Cette modularité ouvrait un champ immense aux développeurs de clients de messagerie, libres d’innover sur l’expérience utilisateur sans se préoccuper des mécanismes de transport.
La décennie 1990 marqua l’adoption progressive d’IMAP par la communauté Internet. Le protocole s’enrichit au fil des versions : support des pièces jointes via MIME, mécanismes d’authentification renforcés, gestion des quotas d’espace disque. IMAP4 obtint le statut de standard Internet en 1994, consacrant sa maturité technique.
L’Université de Pittsburgh offre un exemple saisissant de cette transition. En 1997, l’établissement lança un projet pharaonique : migrer 25 000 utilisateurs vers IMAP. L’opération, bouclée en 2000, nécessita le développement d’outils sur mesure pour convertir les anciennes messageries, former les équipes et déployer une infrastructure serveur à la hauteur des enjeux. Cette migration illustre parfaitement les défis organisationnels que représentait l’adoption d’IMAP à grande échelle.
La sophistication technique d’IMAP transparaît dans sa gestion des états de connexion. Le protocole jongle entre trois modes : connecté, déconnecté, et synchronisation. Cette flexibilité s’avéra prophétique avec l’explosion des usages mobiles. IMAP savait déjà gérer les connexions intermittentes, optimiser les transferts de données et maintenir la cohérence entre client et serveur, des préoccupations qui deviendraient centrales avec l’avènement des smartphones.
Rétrospectivement, IMAP anticipait des technologies du cloud computing : centralisation du stockage, accès multi-périphériques, synchronisation transparente. Ces caractéristiques expliquent sa longévité remarquable et son adoption par la quasi-totalité des fournisseurs de messagerie, des géants du web aux hébergeurs locaux.
Les clients de messagerie ont largement contribué au succès d’IMAP. Pine, avec son interface spartiate mais efficace, Mulberry et ses fonctions avancées, puis Thunderbird et sa démocratisation ont tour à tour popularisé le protocole. L’intégration native dans les systèmes d’exploitation et les navigateurs web paracheva sa diffusion universelle.
L’impact d’IMAP sur les pratiques professionnelles dépasse le simple cadre technique. Le partage de boîtes aux lettres, l’accès simultané aux messages par plusieurs collaborateurs, la consultation nomade du courrier ont transformé l’organisation du travail. Bien avant l’ère du smartphone, IMAP rendait possible la messagerie mobile, condition sine qua non de la flexibilité professionnelle actuelle.
Les innovations techniques portées par IMAP ont essaimé vers d’autres domaines. La gestion fine des connexions réseau, la synchronisation robuste entre client et serveur, l’optimisation des flux de données ont inspiré de nombreux autres protocoles. Cette fécondité technique témoigne de la qualité de conception d’IMAP.
Malgré la concurrence des webmails et l’explosion des messageries instantanées, IMAP conserve une place de choix dans l’écosystème Internet. Sa capacité d’évolution tout en préservant la compatibilité, sa robustesse éprouvée et sa standardisation ouverte en font une technologie pérenne. Les développements actuels portent sur l’amélioration des performances, le renforcement de la sécurité et l’adaptation aux nouveaux usages comme l’Internet des objets.
NSFNet
Vers la fin des années 1970, une frustration grandissante s’empare de la communauté scientifique américaine. ARPANET relie une douzaine d’universités privilégiées, mais le Département de la Défense refuse d’étendre ce réseau à d’autres institutions. Cette situation crée un fossé technologique entre les établissements connectés et les autres, privés des bénéfices de la communication numérique.
Larry Landweber saisit l’ampleur du problème. En mai 1979, il convoque une réunion à l’Université du Wisconsin pour chercher des solutions. L’assemblée découvre que les services de messagerie électronique et de transfert de fichiers transforment la façon de travailler des chercheurs. Déjà, quelques réseaux spécialisés montrent la voie : THEORYNET regroupe 200 informaticiens théoriciens, SAMNET unit 50 spécialistes de l’analyse de performances. Ces expériences limitées révèlent le potentiel des échanges électroniques pour la recherche.
Six mois plus tard, un consortium d’universités frappe à la porte de la National Science Foundation. Le projet paraît séduisant : créer un réseau national accessible à tous les départements d’informatique, avec des coûts raisonnables et une facturation à l’usage. L’infrastructure s’appuierait sur les réseaux commerciaux comme Telenet. Mais les évaluateurs restent sceptiques. N’y a-t-il pas redondance avec ARPANET ? Comment gérer un tel projet ? La NSF préfère commander une étude détaillée.
L’été 1980 voit naître un comité de planification rassemblant dix-neuf experts en réseaux. Deux découvertes changent la donne. Le logiciel MMDF, conçu à l’Université du Delaware, transporte les messages sur différents supports, incluant ARPANET et les lignes téléphoniques. En parallèle, la DARPA adopte les protocoles internet qui autorisent la communication entre réseaux distincts. Ces innovations techniques ouvrent des perspectives inédites : plusieurs réseaux physiques peuvent former une organisation logique unique.
Une nouvelle proposition germe à l’automne 1980. Le consortium s’enrichit des universités du Wisconsin, Purdue, Utah, Delaware et de la société Rand Corporation. Le National Science Board approuve le projet début 1981, mais impose une condition : la NSF dirigera l’opération pendant deux ans avant de la confier à une structure indépendante. Les contrats sont signés au printemps.
En 1985, la NSF lance un défi plus audacieux : connecter ses centres de supercalculateurs dispersés sur le territoire. NSFNET voit le jour en 1986, avec des liaisons à 56 kbps reliant six sites stratégiques. L’innovation technique repose sur des mini-ordinateurs LSI-11/73 équipés du logiciel Fuzzball. Ce système intègre les protocoles internet avec des mécanismes sophistiqués de routage et de gestion des embouteillages.
Le succès dépasse les espérances. Dès 1988, la saturation des liens impose une montée en débit vers 1,5 Mbps. Le réseau s’étend aux réseaux régionaux académiques, créant une toile d’interconnexions complexe. Les nœuds Fuzzball orchestrent le routage adaptatif, synchronisent les horloges avec précision et répartissent équitablement les ressources. Des agents logiciels filtrent les informations de routage entre le cœur du réseau et sa périphérie.
La montée en puissance d’internet transforme le paysage. Entre 1993 et 1998, NSFNET mue vers une architecture commerciale. Les fournisseurs privés se multiplient, poussant la NSF à repenser l’organisation du réseau en 1993. Cette nouvelle structure perdure aujourd’hui. Des contrats signés en 1995 établissent des points d’interconnexion entre réseaux commerciaux. En avril 1995, le service public NSFNET ferme ses portes, remplacé par un maillage de réseaux privés.
Cette transition s’accompagne d’un transfert de responsabilités inattendu. Depuis les origines, le Département de la Défense gère les noms de domaine pour ses utilisateurs militaires. Au début des années 1990, les institutions académiques représentent la majorité des nouvelles inscriptions. Le Federal Networking Council confie alors cette mission à la NSF. Face à l’explosion de la demande, l’enregistrement est rendu payant en septembre 1995. Les chiffres donnent le vertige : 7 500 domaines en 1993, 2 millions en 1998.
L’année 1998 marque la privatisation complète des fonctions critiques d’internet. L’ICANN (Internet Corporation for Assigned Names and Numbers) naît pour superviser le système des noms de domaine. La NSF se recentre sur son cœur de métier : soutenir la recherche sur les protocoles et applications réseaux. Elle continue notamment d’aider les institutions isolées à se connecter.
NSFNET a métamorphosé internet. D’un réseau militaire et universitaire confidentiel, il est devenu l’épine dorsale d’une infrastructure planétaire. Son architecture distribuée et ses mécanismes de collaboration public-privé ont modelé l’organisation actuelle du réseau mondial. Les innovations techniques développées pour ce projet – routage adaptatif, synchronisation temporelle précise – restent des piliers d’internet aujourd’hui.
Au-delà de la technique, NSFNET a inventé un modèle de gouvernance unique. Universités, entreprises et organismes publics collaborent pour préserver l’ouverture du réseau tout en assurant sa croissance. Cette réussite démontre comment une initiative publique peut déclencher le développement d’une infrastructure devenue indispensable à l’économie numérique moderne.
SCSI
Dans les années 1960, IBM travaillait sur son ordinateur central 360 et développa un bus d’entrées-sorties innovant pour l’époque : il pouvait communiquer simultanément avec plusieurs périphériques. Ce bus évolua pour devenir le Canal OEM, mais quand IBM le présenta à l’ANSI pour en faire une norme, l’institut refusa. La raison ? Son caractère trop propriétaire. L’ANSI préférait voir naître un bus parallèle d’entrées-sorties qui répondrait aux besoins commerciaux sans dépendre d’un seul constructeur.
L’histoire prit un tournant inattendu au début des années 1980. Chez Shugart Associates, fabricant de disques durs, quelques ingénieurs qui allaient plus tard fonder Adaptec mirent au point une interface parallèle qu’ils baptisèrent SASI (Shugart Associates System Interface). Cette spécification circula parmi les constructeurs et rencontra un franc succès commercial. En 1982, forte de cette adoption, elle fut présentée à l’ANSI comme base pour une nouvelle norme. L’institut saisit l’opportunité, formalisa et étendit les spécifications du SASI, mais changea son nom en SCSI pour éviter toute référence à un constructeur particulier. Le 18 juin 1986, le SCSI devenait officiellement une norme ANSI.
Le SCSI se distinguait par sa polyvalence : il pouvait contrôler une multitude de périphériques, des disques durs aux imprimantes en passant par les lecteurs de CD-ROM et les scanners. Son architecture interconnectait les petits ordinateurs avec leurs périphériques intelligents, notamment les systèmes de stockage. Les performances étaient remarquables : jusqu’à 4 Mo/s selon l’implémentation, avec une portée qui atteignait 25 mètres grâce aux pilotes et récepteurs différentiels.
Ce qui rendait le SCSI astucieux, c’était son protocole d’adressage logique plutôt que physique pour tous les blocs de données. Chaque unité logique pouvait être interrogée pour connaître sa capacité en blocs. Cette abstraction simplifiait considérablement la gestion et le remplacement des périphériques. Le protocole prévoyait la connexion de multiples initiateurs et cibles, avec un système d’arbitrage distribué intégré directement dans son architecture.
Les années 1990 révélèrent une fracture intéressante dans le monde informatique. Les Macintosh adoptèrent massivement le SCSI pour connecter leurs périphériques, tandis que les PC restaient fidèles à l’interface IDE/ATA. Cette différence n’était pas anodine : presque tous les composants des Mac se raccordaient via SCSI, alors que l’IDE ne gérait que les disques durs. Sur PC, il fallait jongler avec des contrôleurs spécifiques pour les lecteurs de CD-ROM (souvent intégrés aux cartes son) et brancher les lecteurs de bandes sur le contrôleur de disquettes. Le SCSI évitait cette multiplication des interfaces grâce à son bus unique.
La course aux performances poussa constamment la technologie vers de nouveaux sommets. Le SCSI original fonctionnait avec un bus 8 bits cadencé à 5 MHz, ce qui donnait environ 5 Mo/s. Pour aller plus vite, deux voies s’offraient : élargir le bus ou accélérer l’horloge. Ces améliorations successives donnèrent naissance au SCSI-2, qui introduisit des variantes comme le Wide SCSI (bus 16 bits) et le Fast SCSI (horloge 10 MHz).
Le HVD (High Voltage Differential) fit son apparition dans la norme SCSI-2 pour repousser les limites de distance. Cette technique utilisait une broche supplémentaire qui garantissait une transmission précise, permettant d’atteindre 25 mètres de câblage. L’Ultra SCSI, qui relevait de la norme SCSI-3, perfectionna les concepts du SCSI-2. Les débits continuèrent leur ascension avec le Wide Ultra SCSI, l’Ultra2 SCSI et le Wide Ultra2 SCSI. L’Ultra3 SCSI doubla carrément la fréquence d’horloge tout en conservant sa compatibilité avec le SCSI-3.
La vitesse du SCSI tenait beaucoup à son protocole sous-jacent, le SCSI Block Commands (SBC). Ce système autorisait la transmission continue de données entre périphériques avec une seule commande. Prenons l’exemple d’un CD audio : le contrôleur SCSI envoyait un signal SBC au lecteur, qui diffusait ensuite les données vers le contrôleur hôte jusqu’à la fin du disque ou jusqu’à recevoir un signal d’arrêt. Le lecteur pouvait rediriger directement ses données vers un disque dur, court-circuitant le contrôleur et le bus système pour économiser la bande passante.
Pourtant, malgré ses qualités indéniables, le SCSI finit par perdre la bataille du marché grand public face à l’IDE/ATA. L’arrivée de l’ATAPI (AT Attachment Packet Interface) changea la donne : les périphériques IDE pouvaient désormais gérer d’autres appareils que les simples disques durs. Cette extension du standard IDE, couplée au coût élevé des contrôleurs SCSI, précipita l’abandon progressif de cette interface dans les ordinateurs personnels. Mais le SCSI ne disparut pas pour autant : il conserva sa place dans les systèmes professionnels et les serveurs, où ses caractéristiques techniques restaient incontournables.
L’innovation ne s’arrêta pas là. L’iSCSI permit d’envoyer des commandes SCSI sur les réseaux locaux, étendus ou Internet, révolutionnant l’accès et la gestion à distance des périphériques SCSI. L’influence de cette interface se retrouva aussi dans d’autres technologies : l’IEEE-1394 (FireWire) s’appuya sur un sous-ensemble des spécifications SCSI-3 pour contrôler ses périphériques, et les concentrateurs FireWire ressemblaient étrangement à des adaptateurs SCSI simplifiés.
Aujourd’hui, l’héritage du SCSI imprègne encore le stockage informatique moderne. Son approche d’adressage logique et son architecture de commandes ont inspiré les interfaces qui lui ont succédé. Sa capacité à gérer efficacement des périphériques et sa robustesse dans les environnements professionnels en ont fait une technologie fondatrice.
Bash
Dans l’univers des shells UNIX, peu d’histoires rivalisent avec celle du Bourne-Again Shell. Bash tire son nom d’un jeu de mots avec Steve Bourne, l’homme derrière le shell original d’UNIX (/bin/sh) de la septième édition de Bell Labs. Brian Fox, travaillant pour la Free Software Foundation, lance ce projet avec une ambition claire : créer un interpréteur de commandes libre qui deviendrait le cœur du système GNU.
L’exercice s’avère plus délicat qu’il n’y paraît. Recréer un shell compatible avec celui de Bourne ne se limite pas à développer les fonctionnalités documentées. Fox et son équipe découvrent que les utilisateurs Unix exploitent tous les recoins du shell original, y compris ses comportements les plus obscurs et ses subtilités non documentées. La grammaire du Bourne shell manquait de précision, transformant chaque détail en défi technique.
Malgré ces difficultés, Bash s’enrichit. Les développeurs puisent dans le meilleur des autres shells : les fonctionnalités avancées du Korn shell (ksh) et les innovations du C shell (csh) viennent compléter la base compatible POSIX. Cette approche hybride donne naissance à un outil qui respecte les standards tout en offrant une expérience utilisateur moderne.
Quand Chet Ramey de l’université Case Western Reserve reprend les rênes du projet, Bash entre dans une phase de maturation. Ramey apporte une vision long terme et une méthode de développement rigoureuse. Sous sa direction, le shell gagne en stabilité et en fonctionnalités. La version 1.13 adopte le fonctionnement « eight-bit clean ». Jusque-là, Bash utilisait le huitième bit des caractères pour marquer leur statut lors des expansions, ce qui limitait la manipulation de fichiers contenant des caractères accentués ou des symboles spéciaux. Cette correction ouvre la voie à une meilleure internationalisation.
L’interface de Bash révèle l’attention portée à l’expérience utilisateur. La bibliothèque readline transforme la saisie de commandes en véritable éditeur de texte intégré. Les utilisateurs d’emacs ou de vi retrouvent leurs raccourcis clavier familiers directement dans le shell. La complétion automatique devine les noms de fichiers, les commandes disponibles et les variables d’environnement. L’historique des commandes, héritage du C shell, transforme chaque session en une base de données personnelle d’instructions réutilisables.
L’une des forces de Bash réside dans la personnalisation. Chaque utilisateur peut façonner son environnement selon ses préférences grâce aux fichiers .bash_profile et .bashrc. L’invite de commande se pare de couleurs et d’informations contextuelles grâce aux séquences d’échappement. Certains affichent l’heure, d’autres le répertoire courant ou le niveau de charge du système. Cette flexibilité transforme le terminal de simple interface en véritable tableau de bord personnalisé.
La gestion des tâches héritée du Korn shell apporte une dimension multitâche au shell. Les utilisateurs jonglent entre plusieurs processus, les suspendent, les reprennent ou les relancent en arrière-plan. Les alias raccourcissent les commandes fréquentes, tandis que l’expansion des accolades multiplie les possibilités de génération de chaînes de caractères. Taper « file{1,2,3}.txt » génère automatiquement file1.txt, file2.txt et file3.txt.
La distribution de Bash illustre les méthodes de diffusion du logiciel libre des années 1990. Le code source circule via FTP anonyme depuis les serveurs du MIT et ses miroirs dispersés dans le monde entier. La Free Software Foundation commercialise des bandes magnétiques et des CD-ROM pour ceux qui préfèrent un support physique. Les premières distributions Linux adoptent une stratégie double : une version complète riche en fonctionnalités cohabite avec une version minimale destinée à remplacer directement /bin/sh.
L’évolution technique ne s’arrête jamais. Bash acquiert le support des tableaux unidimensionnels, copiant cette fonctionnalité du Korn shell. La complétion programmable se sophistique, permettant aux développeurs de spécifier des comportements sur mesure selon le contexte. Le chargement dynamique de commandes internes étend les capacités du shell pendant son exécution, transformant l’interpréteur en plateforme d’extension.
Grâce à sa portabilité remarquable, Bash tourne sur OS/2, DOS et Windows NT. QNX et Minix l’intègrent dans leurs distributions standard. Cette ubiquité renforce sa position de shell de référence et familiarise une génération d’utilisateurs à ses spécificités.
La communauté d’utilisateurs façonne Bash autant que ses développeurs officiels. Des milliers de retours d’expérience alimentent les cycles de développement. Les corrections de bogues arrivent du monde entier, transformant chaque version en effort collectif. Cette dynamique collaborative donne naissance à un outil exceptionnellement robuste et adapté aux besoins réels.
Bash finit par devenir bien plus qu’un simple shell : il incarne l’esprit UNIX dans sa version libre et démocratisée. Sa documentation complète, ses pages de manuel détaillées et sa maintenance active en font un compagnon fiable pour des générations de programmeurs et d’administrateurs système. Dans les serveurs web, les scripts de sauvegarde ou les chaînes d’intégration continue, Bash continue de traiter silencieusement des millions de tâches quotidiennes, héritier direct d’une tradition vieille de plusieurs décennies.
GIF
En 1987, CompuServe lance le format GIF (Graphics Interchange Format) avec une ambition simple : créer un système d’échange d’images qui fonctionne sur toutes les plateformes. À cette époque, partager un fichier graphique entre différents systèmes relève souvent du parcours du combattant. CompuServe mise sur l’ouverture : les spécifications du format sont publiées librement, ce qui accélère son adoption dans la communauté informatique.
La première mouture, baptisée GIF87a, intègre l’algorithme de compression LZW développé par Terry Welch trois ans plus tôt. Ce procédé comprime les images sans perdre d’informations. Le format accepte jusqu’à 256 couleurs indexées, une limitation qui paraît contraignante mais qui révélera plus tard son potentiel créatif inattendu. Deux ans après, CompuServe perfectionne son format avec la version GIF89a, qui ajoute la transparence et surtout la possibilité de créer des animations par succession d’images.
L’idylle tourne court en 1994. Unisys, propriétaire du brevet sur l’algorithme LZW, décide brutalement d’exiger des redevances pour toute utilisation commerciale. La nouvelle fait l’effet d’une bombe dans l’industrie du logiciel. De nombreux développeurs se retrouvent pris au piège, contraints de revoir leurs modèles économiques ou d’abandonner purement et simplement le support du format. Cette crise stimule paradoxalement l’innovation : elle pousse à la création du format PNG en 1996, conçu comme une alternative libre au GIF.
Mais le GIF résiste et se métamorphose. Avec l’explosion du Web, ses prétendues faiblesses se muent des forces. Cette palette de 256 couleurs, jugée archaïque par les puristes, inspire les artistes qui y trouvent une esthétique minimaliste et expressive. L’animation en boucle, pensée au départ comme une simple fonctionnalité technique, est depuis la signature du format.
Durant les années 2000, les outils de création se démocratisent tandis que les premières plateformes sociales encouragent le partage de contenus visuels. Le GIF trouve sa vocation : devenir un langage universel de l’émotion instantanée. Les « reaction GIFs », ces extraits de films ou séries transformés en boucles expressives, révolutionnent la communication en ligne. Quelques images suffisent désormais à exprimer ce que des paragraphes peinent parfois à dire.
Tumblr cristallise ce phénomène en encourageant la création et la réappropriation des contenus. Sur cette plateforme, le GIF dépasse son statut d’outil pour devenir un medium artistique à part entière. Les créateurs explorent ses possibilités, produisant des œuvres qui oscillent entre art cinétique et commentaire social. Une génération numérique grandit avec ce format, privilégiant l’impact visuel immédiat à la complexité narrative.
L’expiration des brevets LZW entre 2003 et 2004 libère définitivement le format de ses entraves juridiques. Cette émancipation coïncide avec l’avènement des smartphones et des réseaux sociaux mobiles. Le GIF s’avère parfaitement adapté aux contraintes de la communication nomade : compact, universel, instantané. Sa compatibilité avec tous les appareils en fait un dénominateur commun dans un écosystème technologique fragmenté.
Le monde de l’art finit par reconnaître l’importance culturelle du format. Le MoMA expose des GIFs dans ses collections, légitimant ce medium longtemps considéré comme mineur. Cette reconnaissance institutionnelle accompagne l’émergence de nouvelles pratiques artistiques comme le cinemagraph, qui mélange photographie statique et animation subtile pour créer des images troublantes de réalité suspendue.
Malgré l’apparition de formats techniquement supérieurs comme WebM ou MP4, le GIF maintient sa position. Sa simplicité constitue paradoxalement sa force : pas besoin de codecs complexes, pas de problèmes de compatibilité, pas de licences restrictives. Cette accessibilité technique se double d’une accessibilité culturelle qui en fait un outil d’expression démocratique.
L’histoire du GIF illustre un phénomène rare dans l’univers technologique : l’appropriation sociale d’un format technique au-delà de ses intentions premières. Ce qui devait servir uniquement à échanger des images statiques est devenu un élément central de la culture numérique contemporaine. Le format porte en lui des pratiques créatives spécifiques, une esthétique reconnaissable, tout un vocabulaire visuel partagé.
Cette longévité exceptionnelle dans un environnement en mutation perpétuelle souligne l’importance des standards ouverts et simples. Le GIF démontre que les innovations durables ne sont pas forcément les plus sophistiquées, mais celles qui laissent aux utilisateurs la liberté de se les approprier et de les détourner selon leurs besoins.
Le format occupe une position singulière à la croisée de l’art, de la communication et de la culture populaire. Son influence déborde largement le cadre technique pour se répandre dans les pratiques sociales et médiatiques contemporaines. Trente-cinq ans après sa création, le GIF continue d’évoluer, porté par les usages créatifs d’une communauté mondiale qui y trouve un moyen d’expression à la fois accessible et sophistiqué.
Perl
En 1987, Larry Wall travaille au Jet Propulsion Laboratory de la NASA. Linguiste de formation, il passe ses journées face aux écrans UNIX de l’époque, jonglant entre sed, awk et les scripts shell pour traiter des données. Un jour, las de cette gymnastique quotidienne entre outils disparates, il décide de créer son propre langage. Perl naît de cette frustration pratique : faire dialoguer les programmes UNIX sans passer par mille contorsions.
Il n’invente rien de nouveau, mais puise dans ce qui existe déjà, comme les expressions régulières de sed, la puissance de traitement d’awk, la syntaxe familière du C. Mais il assemble ces éléments avec un œil neuf et fait de Perl ce langage « colle » qui transforme la corvée de conversion de données en jeu d’enfant. Wall avait montré ses talents de bricoleur génial avec rn, l’un des premiers lecteurs de nouvelles Usenet, et patch, cet utilitaire qui révolutionne la distribution de correctifs logiciels.
La philosophie de Perl tient en quelques mots : l’efficacité prime sur l’élégance. Là où d’autres langages imposent leur vision rigide, Perl s’adapte au programmeur. Son credo, « Il existe plus d’une façon de le faire », est une souplesse qui déconcerte parfois, mais qui séduit une communauté grandissante d’administrateurs systèmes et de bidouilleurs en tout genre.
Au début des années 1990, tandis que Netscape popularise la navigation graphique, Perl s’impose comme l’outil indispensable pour traiter les formulaires HTML, bien avant PHP. Sa capacité à décortiquer le texte, ses performances correctes sur de petits scripts, sa disponibilité sur toutes les plateformes en font le compagnon idéal des premiers développeurs web. Amazon, Yahoo!, Slashdot : tous ces sites qui façonnent l’internet s’appuient sur Perl.
L’évolution du langage suit un rythme tranquille mais sûr. La version 2 améliore les expressions régulières, la version 3 gère les données binaires. Puis vient 1994 et la version 5. Wall repense la syntaxe, ajoute un support objet convenable, introduit des modules. Cette version de référence est celle que les développeurs utilisent, des décennies plus tard.
Mais Perl ne se limite pas aux caprices de son créateur. Une communauté se forme autour du langage, organisée de façon originale. Les « porteurs » se partagent la maintenance, coordonnés par la liste de diffusion perl5-porters. Pour chaque version, l’un d’eux hérite de la « citrouille des correctifs », supervisant les modifications et les publications. Cette gouvernance informelle fonctionne remarquablement bien.
Le vrai trésor de Perl, c’est le CPAN. Cette archive de modules réutilisables transforme le langage en couteau suisse numérique. Besoin de traiter des images ? De se connecter à une base de données ? De parser du XML ? Il y a forcément un module CPAN pour ça. Cette richesse compense largement les défauts du langage de base.
Wall, avec sa formation de linguiste, insuffle à Perl une dose d’humanité. Le langage tolère l’ambiguïté, s’adapte au contexte, pardonne les approximations. Un programme Perl ressemble parfois à de la prose anglaise mal ponctuée. Cette expressivité séduit, mais elle rebute aussi : lire du Perl écrit par un autre développeur relève parfois du déchiffrage cryptographique.
La question des licences agite alors la communauté du logiciel libre. Wall tranche en proposant une double licence : GPL d’un côté, Artistic License de l’autre, chacun choisit selon ses besoins. Cette souplesse juridique annonce l’approche open source qui émerge à la fin des années 1990.
Les entreprises flairent le filon. O’Reilly & Associates publie des manuels qui seront des références. ActiveState adapte Perl pour Windows, brisant le monopole UNIX. Ces initiatives commerciales n’entament pas l’esprit communautaire du projet. Au contraire, elles le renforcent en apportant ressources et visibilité.
Le nouveau millénaire apporte son lot de concurrents. Python séduit par sa clarté, Ruby par son élégance objet. Ces langages s’inspirent de Perl tout en corrigeant ses défauts supposés. La communauté Perl ne reste pas les bras croisés. En 2000, elle lance le projet Perl 6, refonte ambitieuse du langage. Trop ambitieuse peut-être. Le projet s’enlise, change de nom pour devenir Raku, tandis que Perl 5 continue sa route, imperturbable.
Car Perl 5 a trouvé sa niche. Les biologistes l’utilisent pour analyser l’ADN, les administrateurs pour leurs scripts quotidiens, certains sites web continuent de s’en satisfaire. Le langage a perdu son statut de star, mais il conserve une communauté fidèle et compétente. Ses conférences rassemblent encore des centaines de passionnés, ses modules continuent d’enrichir le CPAN.
Perl a montré qu’un projet libre pouvait rivaliser avec les solutions commerciales, qu’une communauté dispersée pouvait maintenir un logiciel complexe, qu’un langage imparfait pouvait rendre d’immenses services. Dans les serveurs qui font tourner l’internet d’aujourd’hui, quelque part, du code Perl continue sûrement de traiter vos données, discrètement, efficacement.
Self
David Ungar et Randall Smith lancent Self en 1987, un projet qui va bousculer les idées reçues. Ce nouveau langage refuse délibérément tout ce qui semblait acquis à l’époque. Fini les classes, oubliées les variables. Seuls restent les objets et leurs conversations par messages.
Cette radicalité n’est pas gratuite. Elle naît d’une frustration face à la complexité croissante des systèmes orientés objet. Smalltalk-80, pourtant admiré pour son élégance, traîne le poids de ses méta-classes et de leurs imbrications vertigineuses. Self propose une vision différente, celle de ne pas s’embarrasser de moules quand on peut directement sculpter dans la matière.
Dans cet univers épuré, chaque objet est un conteneur de « slots » nommés. Ces emplacements stockent indifféremment données et comportements. L’héritage s’appuie sur de simples pointeurs « parent » qui créent des chaînes de délégation entre objets. Un système si simple qu’il en est déroutant.
La création d’objets suit une logique naturelle. Au lieu de consulter le plan d’une classe, Self clone directement un prototype existant. Cette approche résout d’un coup la fameuse régression infinie des méta-classes qui donnait des sueurs froides aux concepteurs de Smalltalk. Un objet sert de modèle à d’autres objets, point final.
L’uniformité constitue l’autre pilier de cette architecture. Qu’un objet demande une information stockée ou qu’il déclenche un calcul complexe, la syntaxe est identique : l’envoi d’un message. Cette cohérence gomme la distinction traditionnelle entre propriétés et méthodes. Le programmeur navigue dans un monde homogène où chaque interaction obéit aux mêmes règles.
Les premières implémentations de Self surprennent par leurs performances. Dès 1989, le langage rattrape puis dépasse Smalltalk en vitesse d’exécution. Ce succès cache une innovation technique discrète mais décisive. L’équipe invente les « maps », structures internes qui optimisent l’organisation des objets en mémoire. Ces cartes cachées sont ce qu’on appellera plus tard les « hidden classes ».
La compilation personnalisée pousse l’optimisation encore plus loin. Au lieu de produire du code générique, Self génère du code machine taillé sur mesure pour chaque type de destinataire. Cette spécialisation dynamique transforme les performances du langage.
Les caches d’appels polymorphes voient le jour en 1991. Ces PIC mémorisent plusieurs résolutions de méthodes pour chaque site d’appel. Concrètement, quand un message peut aboutir à différents traitements selon le contexte, le système garde en réserve les solutions déjà trouvées. Les appels polymorphes, traditionnellement coûteux, sont soudain abordables.
La version de 1996 franchit un nouveau cap avec le « type feedback » et l’optimisation adaptative. Le premier mécanisme intègre directement les appels dynamiques dans le code compilé, réduisant de 70% les invocations de méthodes. Le second observe le programme en marche et retravaille à la volée les passages les plus sollicités.
Ces avancées techniques attirent l’attention de Sun Microsystems. En 1991, la société recrute Ungar et Smith pour poursuivre leurs recherches. Mais l’histoire prend une tournure inattendue quand deux figures clés du projet, Urs Hölzle et Lars Bak, quittent Sun en 1994 pour créer Animorphic Systems. Leur mission : développer Strongtalk, un Smalltalk haute performance.
Le rachat d’Animorphic par Sun en 1997 scelle le destin des innovations de Self. Elles migrent vers HotSpot, la machine virtuelle qui va propulser Java vers les sommets. Lars Bak récidive en 2008 avec V8, le moteur JavaScript de Google, qui puise lui aussi dans l’héritage de Self.
Cette filiation technique ne constitue qu’une partie de l’histoire. Self influence aussi la conception des langages. JavaScript adopte les prototypes comme mécanisme d’héritage principal. Lua, Io et d’autres langages modernes s’inspirent de cette approche directe où les objets engendrent d’autres objets sans intermédiaire.
La philosophie du concret de Self se reflète dans son environnement de développement. Les objets y apparaissent comme des entités manipulables, visibles et modifiables en temps réel. Cette interface graphique novatrice transforme la programmation en activité tangible. On touche, on déplace, on transforme. L’abstraction cède le pas à la manipulation directe.
Simplicité, uniformité, caractère concret sont les trois principes guident cette vision. Réduire le nombre de concepts, traiter toutes les opérations de façon identique, utiliser des métaphores compréhensibles. Ces idées simples produisent un environnement d’une richesse surprenante.
Self n’a jamais conquis les masses de programmeurs. Trop radical pour certains, trop expérimental pour d’autres, le langage est confiné aux laboratoires de recherche. Pourtant, son influence traverse les décennies. Les techniques d’optimisation qu’il a introduites permettent aujourd’hui aux langages dynamiques de rivaliser avec leurs cousins compilés. Python, Ruby, PHP bénéficient de ses innovations.
Cette histoire singulière montre comment une quête de simplicité peut déclencher une cascade d’innovations durables. Self a démontré qu’il fallait parfois tout remettre à plat pour avancer. Sa conception minimaliste anticipe certaines tendances actuelles où l’épurement des concepts prime sur l’accumulation de fonctionnalités.
L’héritage technique de Self alimente les machines virtuelles les plus performantes du marché. Sa philosophie inspire les concepteurs en quête d’élégance. Quarante ans après sa naissance, Self reste une source d’inspiration pour qui cherche à repenser la programmation orientée objet.
Tcl
John Ousterhout et ses étudiants de l’Université de Californie à Berkeley se heurtaient à un problème récurrent. Ils concevaient des outils interactifs pour la création de circuits intégrés – Magic, Crystal et d’autres – et chacun réclamait son propre langage de commandes. L’équipe consacrait peu d’efforts à ces langages. Le résultat se révélait prévisible avec des syntaxes limitées, incohérentes entre elles, qui finissaient par devenir gênantes.
La solution germa durant l’automne 1987, pendant qu’Ousterhout passait son congé sabbatique au laboratoire de recherche DEC. Pourquoi ne pas créer un interpréteur unique, pensé dès le départ comme une bibliothèque que n’importe quelle application pourrait intégrer ? Ce langage fournirait les bases – variables, boucles, procédures – et chaque programme y ajouterait ses propres commandes spécialisées. Cette extensibilité deviendrait la marque de fabrique de Tcl, le « Tool Command Language ».
Les premiers développements démarrèrent début 1988. Quelques mois plus tard, un éditeur de texte graphique utilisait déjà Tcl. Ousterhout ne s’attendait pas à ce que d’autres développeurs s’y intéressent – erreur de jugement qui l’amuserait plus tard.
Pendant ce temps, les interfaces graphiques compliquaient drastiquement la vie des programmeurs. Les années 1980 voyaient naître des environnements visuels de plus en plus sophistiqués, mais leur développement demandait des investissements colossaux. Ousterhout s’inquiétait : les petites équipes de recherche allaient-elles encore pouvoir innover ? La seule issue consistait à assembler des systèmes complexes à partir de briques réutilisables.
Cette réflexion déboucha sur Tk, l’extension graphique de Tcl. L’idée était simple : construire des interfaces en combinant des composants prêts à l’emploi, avec Tcl comme ciment entre les éléments. Fin 1988, le développement de Tk commençait. Il faudrait deux années pour obtenir quelque chose de vraiment utilisable.
En 1989, Tcl sortait de l’ombre. Ousterhout le présenta en janvier 1990 à la conférence USENIX, où l’accueil fut enthousiaste. Il décida alors de mettre le code source sur le serveur FTP de Berkeley. Internet fit le reste : le bouche-à-oreille propagea Tcl à une vitesse surprenante.
Don Libes du National Institute of Standards and Technology créa la première application Tcl à connaître un succès retentissant. Expect automatisait les programmes UNIX interactifs – une bénédiction pour les administrateurs systèmes qui passaient leurs journées à jongler entre terminaux et scripts. Le succès d’Expect fit connaître Tcl bien au-delà des cercles universitaires.
La croissance devint exponentielle au début des années 1990. D’une poignée d’utilisateurs en 1989, on passa à plusieurs dizaines de milliers en 1993. Deux raisons expliquent cet engouement. Tk représentait le moyen le plus direct de créer des interfaces graphiques sous UNIX – cinq à dix fois plus rapide qu’avec Motif. Et Tcl répondait aux besoins de développeurs qui voulaient rendre leurs applications scriptables sans s’embarrasser de créer leur propre langage.
En 1994, Ousterhout quittait Berkeley pour Sun Microsystems. L’entreprise lui donna les moyens de ses ambitions : une équipe dédiée qui atteignit douze personnes en trois ans. Cette période fut prolifique. Tcl s’émancipait d’UNIX pour conquérir Windows et Macintosh. Le système d’entrées-sorties fut refondu, les sockets réseau intégrés. Un compilateur transformait désormais les scripts en bytecode. Safe-Tcl apportait un modèle de sécurité, tandis qu’un plugin permettait d’exécuter des scripts directement dans les navigateurs web.
1998 marqua la reconnaissance officielle. Tcl reçut le prix ACM du meilleur logiciel système, distinction réservée aux programmes ayant marqué durablement l’informatique. La même année, le prix USENIX STUG venait saluer l’excellence technique de l’outil.
Fin 1997, Ousterhout avait créé Scriptics pour se consacrer entièrement à Tcl. La société développait TclPro, une suite d’outils commerciaux, tout en continuant de distribuer gratuitement le cœur de Tcl. La version 8.1 d’avril 1999 introduisit Unicode, la gestion des threads et un nouveau moteur d’expressions régulières.
Le nom Scriptics disparut en mai 2000, remplacé par Ajuba Solutions pour refléter l’orientation vers XML. Interwoven racheta l’entreprise en octobre. Pour garantir l’indépendance du développement, une équipe centrale autonome – la Tcl Core Team – prit le relais durant l’été 2000.
L’histoire de Tcl témoigne de la trajectoire imprévisible des innovations techniques. Un projet universitaire modeste peut devenir un outil majeur si sa conception répond à des besoins réels et si une communauté s’en empare. Tcl prouva l’importance de rendre les applications scriptables et démontra l’intérêt des composants réutilisables pour les interfaces graphiques.
Acorn Archimedes
À l’automne 1987, Acorn dévoile l’Archimedes, un ordinateur qui va bouleverser les codes de l’informatique personnelle. Derrière ce nom emprunté au célèbre mathématicien grec se cache une machine équipée d’un processeur ARM qui inaugure l’ère du RISC grand public.
L’histoire commence quelques années plus tôt, quand les ingénieurs d’Acorn cherchent un successeur 32 bits au vénérable 6502. Après avoir examiné les processeurs existants sur le marché, ils concluent qu’aucun ne répond à leurs exigences. La décision tombe : ils vont concevoir leur propre puce. Cette audace technique va donner naissance à l’ARM, un processeur d’une simplicité déconcertante mais d’une efficacité redoutable.
L’architecture RISC de l’ARM rompt avec la complexité croissante des processeurs de l’époque. Ses 44 instructions se contentent, pour la plupart, de s’exécuter en un cycle d’horloge. Cette économie de moyens produit des résultats spectaculaires : avec seulement 4 MHz, l’ARM délivre environ quatre MIPS, surpassant bien des processeurs plus rapides mais moins optimisés. Les 27 registres 32 bits complètent cette architecture élégante, conçue pour fonctionner avec de la mémoire dynamique standard.
Acorn décline l’Archimedes en deux gammes distinctes. La série A300 vise le marché éducatif, héritier naturel du BBC Micro qui équipe déjà de nombreuses écoles britanniques. Ces machines privilégient la simplicité : pas de contrôleur de disque dur intégré, mais l’essentiel pour apprendre et découvrir. La série A400 s’adresse aux utilisateurs plus exigeants avec son contrôleur de disque dur et ses capacités d’extension étoffées.
L’A305 ouvre le bal avec 512 Ko de RAM, tandis que l’A310 double la mise avec 1 Mo. Au sommet, l’A440 impressionne avec ses 4 Mo de mémoire et son disque dur de 20 Mo, une configuration qui ferait pâlir bien des machines concurrentes. Ces chiffres reflètent l’ambition d’Acorn : créer un ordinateur personnel capable de rivaliser avec les stations de travail professionnelles.
Le génie de l’Archimedes réside dans son intégration. Quatre circuits spécialisés orchestrent le ballet électronique : l’ARM pour les calculs, le VIDC pour l’affichage, le MEMC pour la mémoire et l’IOC pour les entrées-sorties. Cette approche réduit drastiquement le nombre de composants tout en optimisant les performances. Le résultat se mesure à l’écran : 256 couleurs simultanées, des résolutions jusqu’à 640x512 pixels en couleur ou 1152x976 en monochrome, et un système sonore stéréo huit canaux qui fait de l’Archimedes une machine multimédia avant la lettre.
En 1989, Acorn renouvelle sa stratégie avec l’A3000, une machine compacte qui intègre le clavier dans le boîtier principal. Ce format rappelle l’Amiga 500 ou l’Atari 520ST, mais les performances de l’ARM font la différence. La série A400/1 corrige les défauts de jeunesse des premiers modèles et améliore la gestion mémoire. L’A540, lancé l’année suivante, franchit un nouveau cap avec son ARM 3 plus véloce et ses capacités étendues jusqu’à 16 Mo de RAM.
Le système d’exploitation suit cette évolution matérielle ambitieuse. Arthur, le premier OS de l’Archimedes, hérite de l’approche spartiate du BBC Micro. Son interface en ligne de commande rebute les néophytes mais séduit les programmeurs par sa puissance. Acorn comprend que l’avenir appartient aux interfaces graphiques et lance RISC OS en 1988.
RISC OS transforme l’expérience utilisateur. Son interface multitâche coopérative privilégie la fluidité à la robustesse absolue. Les applications se partagent civilement le processeur, une approche qui fonctionne remarquablement bien grâce aux performances de l’ARM. Le menu contextuel activé par le bouton central de la souris en fait une signature ergonomique, imité plus tard par d’autres systèmes.
L’architecture modulaire de RISC OS autorise une extensibilité remarquable. Les modules, qu’ils résident en ROM ou se chargent en mémoire, enrichissent les fonctionnalités sans toucher au noyau. Cette souplesse facilite l’intégration de nouveaux périphériques et l’évolution du système. Le système de fichiers unifié gomme les différences entre disquettes, disques durs, CD-ROM et réseau Econet, une approche moderne qui anticipe les besoins futurs.
BBC BASIC V, considérablement enrichi par rapport à ses prédécesseurs, tire parti de l’architecture 32 bits pour des performances inédites. Les développeurs découvrent un environnement de programmation réactif qui transforme l’apprentissage du code en plaisir.
L’Archimedes conquiert les écoles britanniques, perpétuant la tradition éducative du BBC Micro. Sa puissance de calcul attire aussi les scientifiques et les professionnels qui y trouvent une alternative crédible aux stations de travail UNIX. Acorn exploite d’ailleurs cette polyvalence en déclinant l’architecture ARM vers le monde professionnel avec les machines R140 et R260.
L’ARM, né dans les laboratoires d’Acorn pour équiper l’Archimedes, va conquérir le monde. La société ARM, issue de cette aventure, est depuis l’un des acteurs majeurs de l’industrie des semi-conducteurs. Aujourd’hui, les processeurs ARM équipent la quasi-totalité de nos smartphones et tablettes, validant rétrospectivement les choix audacieux des ingénieurs britanniques.
L’héritage de l’Archimedes dépasse ses ventes modestes. Cette machine démontre qu’une approche originale de la conception peut produire des résultats exceptionnels. Son architecture RISC influence durablement l’industrie, ses circuits spécialisés anticipent l’intégration moderne, et son système d’exploitation à l’origine les interfaces graphiques contemporaines.
L’Archimedes reste un modèle de cohérence technique. Chaque élément — processeur, mémoire, graphisme, son, système d’exploitation — participe à une vision d’ensemble harmonieuse. Cette approche globale, rare dans l’industrie informatique, produit une machine aux performances remarquables et à l’ergonomie soignée.
Apple Macintosh II
Mars 1987 : Apple bouleverse ses habitudes avec le Macintosh II. Trois ans après le premier Mac, cette machine brise les codes établis par Steve Jobs. Fini le boîtier compact et fermé, place à une architecture qui s’ouvre aux extensions. Cette volte-face répond à une nécessité : IBM gagne du terrain avec ses PC, et Apple doit séduire les professionnels.
Le cœur de la machine bat grâce au Motorola 68020, cadencé à 16 MHz. Apple l’associe au coprocesseur mathématique 68881, une combinaison qui quadruple les performances par rapport aux précédents Mac équipés du 68000. La mémoire vive de base atteint 8 mégaoctets, extensible jusqu’à 20 Mo avec un kit spécialisé. Pour le stockage, on trouve un lecteur de disquettes de 800 Ko et, en option, un disque dur de 40 à 80 Mo.
Mais la véritable révolution du Macintosh II tient dans ses capacités graphiques. L’affichage en couleurs fait son apparition dans la gamme Mac avec une palette théorique de 16,7 millions de teintes. Seules 256 s’affichent simultanément, certes, mais c’est déjà un bond considérable. Plus audacieux, la machine accepte plusieurs moniteurs. Les utilisateurs choisissent entre l’écran monochrome 12 pouces et le modèle couleur 13 pouces, ce dernier exploitant la technologie Trinitron de Sony et sa réputation d’excellence.
L’aspect extérieur tranche avec la tradition Mac. Le boîtier horizontal évoque les PC IBM plutôt que l’élégance verticale des premiers Macintosh. Cette forme abrite une carte mère dotée de six slots d’extension NuBus. Ces emplacements accueillent cartes graphiques, contrôleurs SCSI ou émulateurs CP/M et Pascal. Apple maintient sa simplicité légendaire : aucun cavalier à positionner, aucun commutateur DIP à régler. Les cartes se configurent automatiquement.
La connectique ne lésine pas sur les possibilités. Deux ports série, deux connecteurs Apple Desktop Bus pour périphériques, une interface SCSI et une sortie audio stéréo équipent la machine. Le son mérite une attention particulière grâce à sa puce personnalisée. Quatre voix stéréo avec échantillonnage à 44,1 kHz : une qualité remarquable pour l’époque.
MultiFinder accompagne cette puissance matérielle. Ce système d’exploitation autorise l’exécution simultanée de plusieurs applications. Imprimer tout en téléchargeant, calculer en arrière-plan pendant la rédaction, toutes ces possibilités représentaient une innovation en 1987. L’interface graphique conserve la clarté Mac tout en exploitant la couleur.
Le prix reflète l’ambition du produit : 5 498 dollars avec disque dur, soit plus de 14 000 dollars actuels. Cette tarification vise clairement les professionnels et les utilisateurs fortunés. Les résultats suivent : les secteurs de la publication assistée par ordinateur, du graphisme et de l’ingénierie adoptent volontiers cette machine.
Au-delà des chiffres de vente, le Macintosh II instaure des standards durables. L’importance de la qualité d’affichage, la modularité maîtrisée, l’automatisation des configurations : ces principes guident encore la conception informatique contemporaine. La preuve qu’un ordinateur peut conjuguer puissance et simplicité d’usage, une philosophie qui traverse les décennies chez Apple.
La production s’achève en janvier 1990, remplacée par les Macintosh IIx et IIfx, plus performants. L’héritage perdure dans les stations de travail professionnelles qui suivront. Cette attention portée à l’affichage et au son annonce l’ère multimédia de l’informatique personnelle.
Le Macintosh II cristallise un moment particulier dans l’histoire d’Apple. L’entreprise démontre sa capacité d’adaptation aux contraintes du marché professionnel sans abandonner ses convictions. Cette recherche d’équilibre entre ouverture commerciale et identité propre caractérise toujours la stratégie de développement d’Apple.
Commodore Amiga 500
Jay Miner n’avait qu’une idée en tête : construire l’ordinateur de ses rêves autour du processeur Motorola 68000. Cet ingénieur d’Atari se heurtait aux refus de sa hiérarchie, qui trouvait son projet trop onéreux. La rupture était inévitable. En 1982, Miner claque la porte et crée Hi-Toro, bientôt rebaptisée Amiga. Le pari ? Concevoir une machine aux performances graphiques et sonores jamais vues, dotée d’un vrai multitâche, sans pour autant ruiner l’acheteur.
L’équipe d’Amiga travaille dans un esprit bohème qui tranche avec la rigidité des grandes firmes. Les ingénieurs se réunissent armés de battes en mousse pour « voter » contre les mauvaises idées lors de leurs brainstormings déjantés. Cette atmosphère décontractée libère la créativité et pousse chacun à repenser l’informatique personnelle. Les prototypes s’empilent, faits de circuits imprimés gigantesques qui simulent les futurs composants sur mesure. L’innovation bouillonne, mais l’argent manque cruellement.
1984 sonne l’alerte : Amiga frôle la faillite. Atari propose un prêt de 500 000 dollars, mais le piège se cache dans les conditions. Si la somme n’est pas remboursée avant fin juin, Atari récupère toute la technologie. Un scénario cauchemardesque pour Miner et son équipe. Au dernier moment, Commodore sort de l’ombre avec une offre de rachat à 24 millions de dollars. Le sauvetage a un prix : l’indépendance d’Amiga s’évapore, mais la technologie survit.
Commodore accélère brutalement le développement. L’Amiga 1000 débarque en 1985, machine éblouissante techniquement mais commercialement ratée. Son prix décourage les familles, tandis que son positionnement embrouille les professionnels. Thomas Rattigan prend les commandes de Commodore en 1986 et tranche dans le vif : la gamme se divise en deux branches distinctes. D’un côté, l’Amiga 500 pour séduire le grand public. De l’autre, l’Amiga 2000 pour les utilisateurs exigeants.
L’Amiga 500 naît en 1987 de cette stratégie de différenciation. Les ingénieurs reprennent l’architecture du modèle 1000 en taillant dans les coûts sans pitié. Le clavier s’intègre directement dans le boîtier, l’alimentation migre vers l’extérieur, la sortie TV directe cède la place à un adaptateur vendu séparément. Mais le cœur technologique demeure intact : trois processeurs spécialisés baptisés Agnes, Denise et Paula orchestrent un spectacle multimédia sans précédent.
Agnes gère la mémoire et les effets visuels, Denise s’occupe de l’affichage, Paula supervise le son et les entrées-sorties. Cette trinité électronique délivre 4 096 couleurs simultanées quand la concurrence peine à en afficher une poignée. Les sprites matériels animent les personnages de jeux avec une fluidité saisissante. Le son stéréo sur quatre canaux échantillonnés fait oublier les bips électroniques des autres machines. Le processeur Motorola 68000 cadencé à 7,14 MHz exécute un multitâche préemptif digne des stations de travail professionnelles.
AmigaOS repense entièrement l’interaction homme-machine. L’interface Workbench étonne par sa modernité, tandis que le noyau Exec jongle avec les tâches concurrentes sans broncher. RJ Mical signe avec l’API Intuition un petit chef-d’œuvre de programmation qui simplifie radicalement la création d’interfaces. Le système manipule plusieurs écrans de résolutions différentes, prouesse technique unique à l’époque.
Les développeurs de jeux se ruent sur cette puissance inédite. Avec ses douze plans de scrolling parallaxe qui glissent à des vitesses différentes, Shadow of the Beast hypnotise. Defender of the Crown éblouit par ses illustrations digitalisées d’un réalisme stupéfiant. Les musiciens inventent le format MOD, transformant l’Amiga en studio d’enregistrement domestique. Deluxe Paint ouvre aux artistes amateurs les portes de la création graphique numérique.
Une communauté passionnée se cristallise autour de la machine. Les magazines spécialisés comme Amiga World témoignent de cet engouement délirant. Les programmeurs échangent trucs et astuces pour extraire jusqu’à la dernière goutte de performance du matériel. Certains désactivent carrément le système d’exploitation pour un contrôle total, utilisant le processeur graphique comme débogueur en modifiant la couleur de fond à des points stratégiques du code.
L’Europe adopte massivement l’Amiga 500. Au Royaume-Uni, c’est la référence absolue du jeu vidéo familial. Son tarif abordable et ses capacités multimédia séduisent créateurs graphiques et musiciens en herbe. Andy Warhol s’empare de cette nouvelle toile électronique pour explorer les possibilités de l’art numérique.
Commodore gâche pourtant ce succès par une gestion désastreuse. L’entreprise accumule les erreurs stratégiques face à la montée des PC compatibles IBM. Le licenciement de Thomas Rattigan en 1987 prive la société de toute vision claire. L’Amiga 600 qui suit déçoit par son manque d’ambition, simple toilettage cosmétique d’une architecture qui vieillit.
L’Amiga 500 reste dans l’histoire comme le symbole d’une innovation technique qui primait sur les considérations marketing. Multitâche préemptif, accélération graphique matérielle, son multicanal échantillonné : autant de concepts qui ne s’imposeront dans le grand public qu’une décennie plus tard. Son héritage perdure dans l’industrie vidéoludique et les outils de création multimédia.
La fidélité de sa communauté défie le temps. Des équipes comme les développeurs irakiens de Babylonian Twins ressortent leurs vieux projets Amiga des années plus tard pour les adapter aux smartphones. Cette obstination témoigne de l’empreinte laissée par une machine qui a repoussé les frontières de l’informatique personnelle, au point de rendre obsolètes certains ordinateurs professionnels.
Sharp X68000
En 1987, alors que le paysage informatique japonais grouillait de machines diverses – MSX, NEC PC-88, PC-98, ordinateurs Fujitsu –, Sharp prit une direction différente. L’entreprise décida de créer un ordinateur sans compromis, quitte à le vendre à prix d’or.
Le Sharp X68000 affichait ses ambitions dès le premier regard. Son boîtier en double tour, équipé d’une poignée rétractable, évoquait davantage un équipement Hi-Fi haut de gamme qu’un ordinateur traditionnel. Cette esthétique futuriste s’inspirait du Sharp X1 Twin, qui combinait déjà un ordinateur X1 et une console PC Engine. Le design industriel franchissait ici un cap : l’ordinateur devenait un objet de désir.
Sous ce capot distinctif se cachait une mécanique de précision. Le processeur Motorola 68000 tournait à 10 MHz, soutenu par 1 Mo de mémoire vive extensible jusqu’à 12 Mo et 1 Mo de mémoire vidéo dédiée. Ces spécifications plaçaient la machine dans une catégorie à part. Le X68000 affichait 65 536 couleurs simultanées et gérait jusqu’à 128 sprites matériels – des chiffres qui faisaient rêver les développeurs de jeux vidéo.
Le prix reflétait ces performances : 369 000 yens, soit environ 6 000 dollars actuels. Sharp ne visait pas le grand public mais une clientèle d’amateurs éclairés et de professionnels. Cette stratégie se matérialisa par le développement d’outils et de bibliothèques spécifiquement destinés aux créateurs de jeux. Le pari porta ses fruits : le X68000 accueillit des versions souvent supérieures aux originaux arcade de Final Fight, Ghouls’n Ghosts ou Street Fighter II.
Le système d’exploitation Human68k, conçu par Hudson Soft, empruntait à MS-DOS tout en apportant ses propres innovations. Les premières machines utilisaient l’interface VS, remplacée plus tard par SX-Window sur les modèles ultérieurs. Une troisième interface, Ko-Window, rappelait Motif et fut développée par des tierces parties.
L’histoire du X68000 s’écrivit au fil des années à travers une succession de modèles. En 1988 apparut l’ACE, suivi l’année suivante par l’EXPERT qui intégrait d’office 2 Mo de RAM. Le modèle PRO adopta un boîtier PC classique pour accueillir davantage de slots d’extension. 1990 marqua l’arrivée des versions SUPER, qui troquèrent l’interface SASI contre le SCSI. Le XVI de 1991 poussa le processeur à 16 MHz, tandis que le Compact XVI de 1992 proposait un format plus compact avec des lecteurs 3,5 pouces. La série culmina en 1993 avec le X68030, propulsé par un processeur 68030 à 25 MHz.
La richesse de l’écosystème X68000 impressionne encore. Des cartes d’extension MIDI permettaient de connecter des synthétiseurs comme le Roland MT-32. La carte graphique TS-6BGA combinait accélération et son PCM. Certains accessoires atteignent désormais des sommets en termes de rareté, comme la carte POLYPHON qui intégrait FPU, MIDI, PCM et 8 Mo de RAM dans un seul module. Côté contrôle, les manettes incluaient le Cyber Stick pour les simulations et l’étonnant XE-1 au design non conventionnel.
La créativité de la communauté homebrew produisit des œuvres remarquables. Cho Ren Sha 68k, développé par deux personnes en 1995, reste un exemple saisissant. Ce jeu de tir affichait 512 sprites simultanés grâce à des techniques avancées de multiplexage – un exploit technique d’autant plus remarquable qu’il fut programmé principalement en C plutôt qu’en assembleur. Cette réalisation témoigne de la qualité des outils de développement mis à disposition.
Pourtant, l’aventure X68000 s’acheva en 1993. Sharp n’avait pas fait évoluer significativement le matériel vidéo et audio pendant six ans. Face à la montée en puissance des PC équipés de cartes graphiques et sonores performantes, la machine perdait de son attrait malgré ses qualités intrinsèques. Un projet de version PowerPC fut aussi abandonné. Mais un geste inattendu changea la donne. En 2000, Sharp, Hudson et d’autres entreprises impliquées libérèrent le système d’exploitation Human68k, le BIOS et divers outils en domaine public. Cette décision exceptionnelle rend ce système toujours accessible grâce à une émulation légale et fidèle de la machine.
Le X68000 incarne une vision japonaise particulière de l’informatique personnelle des années 1980. Là où d’autres privilégiaient le compromis entre prix et performances, Sharp choisit l’excellence technique et le design audacieux. Sa capacité à reproduire l’expérience arcade, ses performances graphiques exceptionnelles et son architecture évoluée en font une machine à part. Mais les problèmes de fiabilité de son alimentation et son prix prohibitif limitèrent sa diffusion.
OS/2
En 1987, IBM et Microsoft scellent une alliance improbable pour créer OS/2, le système d’exploitation qui devait équiper les nouveaux ordinateurs IBM PS/2. Cette collaboration entre deux mastodontes partait d’un constat simple : le DOS montrait ses limites face aux processeurs Intel 80286. Il fallait faire mieux, faire plus moderne. L’idée séduisante sur le papier cachait déjà des tensions latentes entre deux visions diamétralement opposées de l’avenir informatique.
OS/2 apportait ce qui manquait aux utilisateurs de l’époque : une interface graphique digne de ce nom et des fonctionnalités jusque-là réservées aux gros systèmes. Il partageait certains traits avec Windows, UNIX ou Xenix, mais ses ambitions dépassaient celles de ses concurrents. Cette première mouture ne laissait rien présager du divorce retentissant qui allait secouer l’industrie.
Car les deux partenaires regardaient dans des directions opposées. Microsoft lorgnait vers Windows, qu’elle considérait comme l’avenir. IBM voulait poursuivre sur OS/2. Cette opposition grandissante a fini par exploser en 1992, provoquant ce que les observateurs ont appelé un « divorce ». Microsoft est repartie avec ses billes et une partie du code, qu’elle a recyclé dans Windows NT et Windows 95. IBM s’est retrouvée seule avec son système sur les bras.
Pour rebondir, IBM s’est tournée vers Commodore Business Machines et a puisé son inspiration dans AmigaOS. La version 2.0 d’OS/2, lancée en mars 1992, a introduit le Workplace Shell, une transformation dans l’interface utilisateur. Cette innovation marquait l’entrée de la programmation orientée objet dans l’univers grand public des systèmes d’exploitation. Une première qui ne passait pas inaperçue.
Le Workplace Shell bousculait les habitudes. Glisser-déposer des icônes dans des dossiers, accéder aux menus par clic droit, déclencher une impression en déplaçant simplement une icône : autant de gestes qui changeaient alors l’interaction homme-machine. Le hic venait des limitations matérielles, car les ordinateurs manquaient de mémoire vive, contraignant les utilisateurs à des mises à niveau coûteuses pour exploiter pleinement ces nouveautés.
1994 voit naître OS/2 Warp, la version qui marquera l’apogée du système. Cette mouture séduisait par sa simplicité d’usage et son architecture 32 bits, tout en gardant la compatibilité DOS. Un atout technique non négligeable face aux Windows de l’époque, englués dans leur base DOS 16 bits. Pourtant, malgré ces qualités indéniables, OS/2 n’arrivait pas à percer sur le marché grand public.
Le système a trouvé refuge dans des créneaux spécialisés, particulièrement les guichets automatiques bancaires où sa stabilité et sa fiabilité faisaient merveille. Microsoft, de son côté, déployait une stratégie commerciale agressive pour imposer Windows, reléguant OS/2 dans ces niches techniques. Une situation frustrante pour IBM, qui voyait son système cantonné à des usages spécialisés.
IBM finit par jeter l’éponge en 2005, arrêtant la production d’OS/2, suivi de son support en 2006. Les inconditionnels du système ont réclamé sa libération sous licence libre, mais cette démarche s’est heurtée aux droits de propriété intellectuelle de Microsoft sur certaines parties du code.
L’histoire d’OS/2 ne s’arrête pas là. En 2001, Serenity Systems obtient une licence d’IBM et commercialise le système sous le nom d’eComStation. Plus tard, en 2015, Arca Noae récupère le flambeau avec ArcaOS.
OS/2 a introduit des innovations qui font partie de notre quotidien numérique. Sa conception rigoureuse et sa recherche de stabilité ont établi de nouvelles références. Pourtant, son échec commercial rappelle que les qualités techniques ne suffisent pas : stratégies commerciales, alliances industrielles et capacité à fédérer un écosystème déterminent largement le succès d’une technologie.
Unicode
En 1968, ASCII est une norme aux États-Unis. Le principe est d’attribuer une valeur numérique entre 0 et 127 à chaque caractère. La lettre « a » prend le code 97, « Z » le code 90. Simple, efficace... mais terriblement limité. Impossible d’écrire correctement « naïve » ou « café » avec ce système pensé pour l’anglais.
Durant les années 1980, l’informatique personnelle sur machines 8 bits prend son envol. Les valeurs possibles s’étendent jusqu’à 255. Constructeurs et éditeurs se ruent sur ces 128 positions supplémentaires pour y loger les caractères accentués. Chacun y va de sa solution. Commodore place les lettres accentuées françaises à sa façon, IBM aussi avec son code page 437. Un fichier créé sur une machine est illisible sur une autre. Ce qui ressemblait à du français sur un Amstrad CPC se transforme en hiéroglyphes sur un PC compatible.
Des conventions émergent petit à petit. L’Organisation internationale de normalisation standardise certains codages, d’autres s’imposent par la force de l’usage commercial. Mais le problème de fond demeure : 255 caractères, c’est dérisoire face aux besoins réels. Impossible d’intégrer simultanément les accents français et l’alphabet cyrillique. Les utilisateurs jonglent entre codages selon la langue du moment. KOI8 pour taper en russe, Latin1 pour le français. Écrire un texte citant du Tolstoï en version originale relève de l’exploit technique.
À la fin des années 1980, quelques visionnaires se lancent dans un projet fou : créer un système capable de représenter tous les caractères de toutes les langues humaines. Unicode naît de cette ambition, avec comme idée de départ passer aux caractères 16 bits. Au lieu de 255 positions, on dispose de 65 536 emplacements. De quoi loger chinois, arabe, hébreu, cyrillique et alphabets latins dans le même système.
L’ISO travaille en parallèle sur sa norme 10646. Deux projets, un seul objectif. Heureusement, les équipes finissent par fusionner leurs efforts avec la version 1.1 d’Unicode. Les 65 536 positions se révèlent insuffisantes et la spécification moderne s’étend jusqu’à 1 114 111 caractères possibles (0x10FFFF en notation hexadécimale).
Unicode va bien au-delà du simple catalogue de caractères. La norme définit des propriétés et règles d’usage complexes. Le consortium responsable publie un manuel de plus de 1 000 pages. S’y ajoutent 14 annexes techniques, 7 standards, 6 rapports techniques et 4 rapports stabilisés. Césure, rendu bidirectionnel, disposition verticale : tout y passe. L’ampleur de cette documentation révèle la complexité réelle du traitement de texte multilingue.
Mais en pratique, comment stocker ces caractères en mémoire ? La solution brutale consiste à réserver 32 bits par caractère. Mais elle multiplie par quatre l’espace disque et la bande passante par rapport à ASCII. Sans compter les problèmes de portabilité entre processeurs organisant différemment les octets.
UTF-8 apporte la réponse élégante. Ce format utilise un nombre variable d’octets selon le caractère. Un seul octet pour ASCII (valeurs inférieures à 128), deux octets pour les valeurs jusqu’à 2 047, trois ou quatre octets au-delà. Compatibilité ASCII préservée, pas d’octets nuls gênants, possibilité de resynchronisation en cas de corruption : les avantages s’accumulent.
UTF-16 existe aussi mais reste moins populaire. Il encode les caractères sur deux ou quatre octets avec un mécanisme spécial appelé « surrogate pairs » pour les caractères hors du plan multilingue de base. Un marqueur d’ordre des octets indique l’organisation des données en mémoire.
Les mises à jour de la norme créent parfois des turbulences. L’amendement 5 à ISO 10646 déplace et étend le bloc coréen Hangul, invalidant les données existantes. Cet épisode, baptisé « le bazar coréen », pousse les comités de normalisation à s’engager contre ce type de modification incompatible.
Unicode gère des mécanismes sophistiqués. Les caractères se combinent, comme un accent venant modifier sa lettre de base. La norme définit des règles de rendu bidirectionnel pour mélanger textes arabes (droite vers gauche) et occidentaux (gauche vers droite) dans le même document.
L’adoption d’Unicode transforme l’informatique. Systèmes d’exploitation, protocoles Internet, formats de fichiers : tout bascule vers cette représentation unifiée. L’internationalisation des logiciels s’en trouve grandement facilitée. Échanger un document multilingue est enfin naturel.
Le consortium Unicode poursuit son travail d’enrichissement. Nouveaux caractères pour couvrir des écritures historiques, support de besoins émergents : la norme évolue constamment. L’arrivée des émojis illustre cette capacité d’adaptation aux nouveaux usages de la communication numérique. Chaque ajout nécessite un soin minutieux pour préserver la cohérence d’ensemble.
Unicode marque une rupture dans l’histoire de l’informatique textuelle. Cette norme établit une base technique solide pour le traitement multilingue. Son adoption universelle prouve qu’il est possible de créer des standards internationaux complexes servant efficacement tous les utilisateurs de la planète.
FrameMaker
En 1986, un étudiant en astrophysique de l’université Columbia abandonnait ses études pour se lancer dans l’aventure de l’édition technique. Charles Corfield venait de développer un prototype baptisé /etc/publisher et avait la conviction qu’il pouvait faire mieux que ce qui existait alors. Insatisfait des outils disponibles et désireux de s’assurer un avenir financier stable, il quitta les bancs de l’université pour se consacrer entièrement à la programmation.
Cette décision marqua la naissance de Frame Technology, une société fondée par quatre personnalités aux profils complémentaires. Aux côtés de Corfield et de ses compétences en mathématiques et développement, Steven Kirsch apportait son expérience entrepreneuriale forgée chez Mouse Systems. David Murray maîtrisait les subtilités des interfaces utilisateur et de l’édition, tandis que Vickie Blakeslee excellait dans l’organisation et la gestion opérationnelle. Cette association d’expertises diverses créa un terreau fertile pour l’innovation.
Le marché de l’édition technique était alors dominé par Interleaf, qui imposait sa loi sur les stations de travail UNIX. Son système, vendu autour de 30 000 dollars, exigeait une installation complexe et imposait ses propres standards d’interface. Face à ce monopole, Frame Technology choisit une approche radicalement différente. FrameMaker fut proposé à 2 500 dollars avec une interface native aux systèmes d’exploitation et une installation d’une simplicité déconcertante.
Cette stratégie de rupture s’appuyait sur des innovations techniques remarquables. FrameMaker réussissait à marier les fonctionnalités des traitements de texte et des logiciels de publication assistée par ordinateur. Le programme gérait la numérotation automatique des chapitres et sections, les références croisées en temps réel, proposait une gestion sophistiquée des tableaux et un support multilingue avancé. Sa capacité à gérer des documents volumineux répartis sur plusieurs fichiers séduisait les rédacteurs techniques. L’architecture basée sur le concept de « frames » (cadres) offrait une flexibilité inédite dans l’intégration du texte et des graphiques.
Le succès ne se fit pas attendre. Dès la version bêta 0.6, commercialisée en 1986, l’entreprise vendit quelques centaines de licences. Le premier client, un groupe d’ingénierie de John Deere, ouvrit la voie à une adoption rapide. Les administrations fédérales américaines furent séduites par cette approche non liée à du matériel spécifique. Les partenariats avec les fabricants de stations de travail UNIX comme Sun Microsystems accélérèrent cette expansion.
Initialement développé pour UNIX, FrameMaker fut adapté pour le Macintosh puis Windows. Cette portabilité reposait sur une architecture logicielle innovante, le Device Independent Maker, qui séparait le code central des interfaces spécifiques à chaque système. Le format d’échange MIF (Maker Interchange Format) garantissait l’interopérabilité entre plateformes, une préoccupation croissante dans un monde informatique de plus en plus hétérogène.
Frame Technology innova aussi sur le plan commercial. Le système de licences partagées autorisait plusieurs utilisateurs à se partager un nombre limité d’accès simultanés, réduisant considérablement le coût pour les organisations. L’entreprise développa des partenariats stratégiques, notamment avec Toshiba, qui généra plus de 5 millions de dollars de redevances. Cette approche flexible du modèle économique contribua largement à l’adoption du logiciel.
La croissance de la société fut spectaculaire. De 5 employés en 1986, Frame Technology passa à 297 personnes en 1991. Le chiffre d’affaires suivit une progression similaire : 3,4 millions de dollars en 1987, 41,7 millions en 1991. L’introduction en bourse de février 1992 valorisa l’entreprise à 146 millions de dollars. Adobe Systems racheta Frame Technology en 1995 pour environ 500 millions de dollars, consacrant ainsi le succès de cette aventure entrepreneuriale.
La culture d’entreprise se distinguait par son ouverture et sa diversité. Les équipes incluaient une proportion remarquable de femmes, de minorités et de personnes LGBT, y compris aux postes de direction. Cette diversité nourrissait la créativité et stimulait l’innovation. La gestion des projets s’inspirait de l’approche décrite par Richard Feynman dans Surely You’re Joking, Mr. Feynman!, privilégiant la discussion ouverte suivie de décisions claires et assumées.
L’impact de FrameMaker sur l’industrie dépassa largement les espérances de ses créateurs. Le logiciel démocratisa l’accès à l’édition technique professionnelle, auparavant réservée aux grandes organisations disposant de budgets conséquents. Il établit de nouvelles normes en matière d’interface utilisateur et d’intégration aux systèmes d’exploitation. Son architecture modulaire et sa gestion avancée des documents structurés influencèrent durablement le développement des futurs outils d’édition.
Trois décennies plus tard, FrameMaker demeure un outil de référence dans l’édition technique, utilisé par plus de 700 000 personnes dans 30 000 entreprises. Adobe continue à faire évoluer le logiciel, l’adaptant aux besoins contemporains avec le support de formats comme XML et DITA, ainsi que la publication multicanal vers HTML5 et les formats numériques.
IBM AS/400
Alors que l’informatique d’entreprise se fragmentait entre une multitude de systèmes incompatibles, IBM préparait en secret une machine qui allait bousculer les codes établis. L’AS/400 naîtrait en 1988 dans les laboratoires de Rochester, Minnesota, loin des grands centres de recherche de la côte Est américaine. Cette gestation particulière explique en partie pourquoi cette architecture développa des caractéristiques si singulières.
L’équipe de Frank Soltis travaillait depuis 1978 sur le System/38, un ordinateur aux concepts précurseurs mais au succès commercial mitigé. Les ingénieurs de Rochester avaient choisi une voie radicalement différente de celle explorée par les créateurs d’UNIX, de VMS ou des futurs concepteurs de Windows NT. Leur approche resta d’ailleurs si confidentielle qu’IBM ne partageait pas tous les secrets de cette architecture avec ses autres divisions.
Quand l’AS/400 fut dévoilé le 21 juin 1988, l’annonce surprit par son ampleur. Six modèles de processeurs étaient proposés simultanément, accompagnés de plus de 1 000 applications prêtes à l’emploi. Cette disponibilité logicielle immédiate constituait un record dans l’industrie informatique. Les performances promises impressionnaient : la mémoire était multipliée par 24, le stockage par 48, et la puissance de calcul décuplée par rapport aux générations antérieures.
La véritable innovation résidait dans l’architecture interne. L’AS/400 reposait sur une interface machine indépendante de la technologie, baptisée TIMI. Les programmes ne communiquaient plus directement avec le processeur mais avec une machine virtuelle. Cette abstraction permit en 1995 un tour de force technique : IBM remplaça les processeurs CISC 48 bits par des puces RISC PowerPC 64 bits sans qu’aucune application existante ne nécessite la moindre modification. Tous les programmes continuèrent de fonctionner comme si de rien n’était.
Le système organisait tout sous forme d’objets. Fichiers, programmes, imprimantes, utilisateurs : chaque élément possédait une description précise de ses usages autorisés et de sa fonction. Cette conception orientée objet, inhabituelle pour l’époque, renforçait la sécurité et simplifiait la gestion. Un administrateur pouvait manipuler n’importe quel composant du système avec les mêmes commandes standardisées.
L’intégration constituait l’autre pilier de cette architecture. Là où des systèmes assemblaient péniblement base de données, sécurité, communications et outils de sauvegarde provenant de fournisseurs différents, l’AS/400 incorporait nativement toutes ces fonctions dans son système d’exploitation. DB2/400 gérait les données, la sécurité contrôlait chaque accès, les protocoles de communication étaient intégrés. Cette unité simpliait drastiquement l’administration quotidienne.
La gestion mémoire révolutionnait les pratiques habituelles. Le « single-level store » créait un espace d’adressage unique de 64 bits, soit environ 18 quintillions d’octets. Les programmes et leurs données recevaient des adresses permanentes dans cet espace gigantesque. Plus besoin de jongler entre mémoire principale et stockage secondaire : le système se chargeait automatiquement de placer les objets au bon endroit selon leur utilisation.
Les années 1990 virent l’AS/400 évoluer pour s’adapter aux nouveaux besoins. En 1994, l’Advanced Series intégrait Lotus Notes et l’accès Internet. Des modèles portables apparurent, ainsi que des versions destinées aux petites structures. La fiabilité s’améliora d’un facteur 20 entre 1988 et 1992, tandis que les performances progressaient de 30% chaque année.
Le succès commercial accompagna l’excellence technique. 250 000 systèmes des gammes précédentes (System/34, /36 et /38) étaient déjà installés lors du lancement. En 1992, IBM livrait le 200 000e AS/400 à la brasserie Heineken. Ces chiffres témoignaient d’une adoption massive dans les entreprises du monde entier.
L’identité de la machine évolua au fil des rachats et des stratégies marketing d’IBM. AS/400e, puis eServer iSeries, eServer i5, System i5, System i, et finalement IBM i en 2008. Ce dernier nom soulignait les nouvelles capacités du système, désormais capable d’exécuter simultanément IBM i, AIX et Linux sur le même matériel POWER.
L’environnement de développement se modernisa progressivement. L’Integrated Language Environment remplaça l’ancien modèle de programmation en améliorant les performances des programmes modulaires. RPG et COBOL, langages historiques de la plateforme, cohabitèrent avec C/400, Pascal et Java. L’interface en ligne de commande, reconnaissable à ses mnémoniques comme WRKOBJ (« work with object »), survécut à tous les changements tout en s’enrichissant d’interfaces graphiques modernes.
Cette longévité exceptionnelle révèle la pertinence d’une vision différente de l’informatique d’entreprise. Pendant que la plupart des constructeurs développaient des systèmes modulaires assemblant des composants hétérogènes, IBM Rochester privilégiait l’intégration, la cohérence et la simplicité d’usage. L’AS/400 prouve qu’une approche alternative aux standards dominants peut survivre et prospérer pendant plus de trois décennies.
Internet Relay Chat
En 1988, dans les locaux de l’université d’Oulu, un étudiant finlandais du nom de Jarkko Oikarinen travaille sur un problème qui l’agace : comment faire discuter plusieurs personnes simultanément sur les BBS, ces tableaux d’affichage électroniques qui précèdent le Web ? Les outils existants comme « talk » ou « rmsg » sous UNIX se limitent à des conversations à deux. Oikarinen imagine alors quelque chose de différent, des salons de discussion où n’importe qui pourrait entrer et participer à la conversation générale.
Cette idée donne naissance à l’Internet Relay Chat, plus connu sous l’acronyme IRC. Pour la première fois, des dizaines de personnes peuvent échanger en temps réel dans un espace virtuel. Oikarinen baptise ces espaces des « canaux », identifiés par le symbole dièse qui deviendra plus tard célèbre sur d’autres plateformes.
Les premiers mois d’IRC restent confidentiels. Le réseau se cantonne à la Scandinavie, bridé par les connexions internationales balbutiantes de l’époque. La situation change quand Mike Jacobs, depuis le MIT, parvient à se connecter au système d’Oikarinen. Ce contact transatlantique ouvre les vannes : le code circule, de nouveaux serveurs s’ajoutent, le réseau grandit.
En janvier 1991, lors de la guerre du Golfe, IRC connaît sa première utilisation massive lors d’un événement mondial. Des utilisateurs se rassemblent pour relayer en temps réel des informations de guerre, atteignant pour la première fois plus de 300 utilisateurs simultanés. Les logs de ces échanges sont conservés dans les archives ibiblio.
En août 1991, lors de la tentative de coup d’État contre Mikhaïl Gorbatchev, IRC joue son rôle. Pendant le blocus médiatique imposé par les putschistes (19-21 août), des utilisateurs à Moscou utilisent IRC pour transmettre des informations en temps réel vers le reste du monde, contournant ainsi la censure. Les logs de ces échanges sont aussi conservés dans les archives. Des sources mentionnent parfois l’utilisation d’IRC lors de la crise constitutionnelle russe de septembre-octobre 1993, mais cette information reste à confirmer par des sources primaires.
Le succès attire les convoitises et les désaccords. Des querelles éclatent sur la gestion du réseau unique d’IRC. Qui peut créer de nouveaux serveurs ? Selon quels critères ? Les tensions montent jusqu’à la rupture. Une partie des utilisateurs fait sécession pour créer Undernet, laissant le serveur original d’Oikarinen former la base d’EFnet. Ces deux réseaux rivaux continuent d’exister, rejoints par des centaines d’autres nés des mêmes divisions.
Car IRC se fragmente. Chaque réseau développe ses propres règles, ses propres serveurs, son propre code. Les programmeurs expérimentent, modifient, adaptent. De cette effervescence émergent trois grandes familles techniques : le protocole P10 d’Undernet, hybrid pour EFnet, bahamut pour Dalnet. La diversité technique reflète la philosophie décentralisée d’IRC, où personne ne contrôle l’ensemble.
Cette décentralisation a un prix. Les réseaux IRC souffrent régulièrement de netsplits, ces coupures temporaires qui divisent un réseau en plusieurs morceaux. Quand deux serveurs perdent contact, leurs utilisateurs se retrouvent séparés jusqu’à ce que la connexion se rétablisse. Ces incidents, d’abord perçus comme des pannes gênantes, sont peu à peu une caractéristique acceptée du système.
L’architecture d’IRC reste d’une simplicité déconcertante. Les messages transitent en texte brut, sans chiffrement ni stockage persistant. Cette légèreté technique explique en partie la robustesse du protocole, qui fonctionne aussi sur des connexions poussives, avec des serveurs aux ressources limitées. Là où d’autres systèmes exigent des serveurs puissants et des connexions rapides, IRC se contente de peu.
Les utilisateurs compensent les limitations du protocole par leur créativité. Ils développent des robots de discussion, des systèmes d’enregistrement de conversations, des interfaces graphiques sophistiquées. L’écosystème logiciel autour d’IRC foisonne. Chacun programme ses propres outils, partage ses scripts, améliore ceux des autres.
Cette culture du bricolage marque IRC. Le protocole influence d’ailleurs les plateformes qui lui succéderont. Le @ des opérateurs de canaux, le # des noms de salons, ces conventions nées dans les années 1980 réapparaîtront bien plus tard sur Twitter et d’autres réseaux sociaux. IRC invente un langage symbolique que le Web grand public finira par adopter.
Conçu pour quelques centaines d’utilisateurs maximum, IRC dépasse ses limites théoriques. Au plus fort de son succès, les quatre plus gros réseaux rassemblent plus de 500 000 personnes connectées simultanément. Les serveurs tiennent bon, la technique s’adapte, les communautés prospèrent.
Bien plus qu’un simple outil de discussion, des communautés entières se développent avec IRC, avec leurs codes, leurs habitudes, leurs rituels. Les développeurs de logiciels libres y trouvent un lieu d’échange technique. Les passionnés d’informatique s’y retrouvent pour débattre des dernières innovations. Des amitiés naissent, des projets se montent, des collaborations s’organisent.
IRC survit discrètement dans l’ombre des géants du Web social. Les jeunes générations l’ignorent souvent, préférant des interfaces plus colorées et des fonctionnalités plus riches. Mais les communautés techniques lui restent fidèles. Sur des milliers de canaux, des conversations continuent, des projets s’élaborent, des savoirs se transmettent. IRC incarne une certaine idée d’Internet : décentralisé, ouvert, maîtrisable par ses utilisateurs.
SNMP
À la fin des années 1980, les réseaux informatiques connaissaient une croissance sans précédent. Cette expansion révélait un problème épineux : chaque constructeur développait ses propres outils de gestion, créant un véritable casse-tête pour les administrateurs. IBM avait ses solutions, Cisco les siennes, et aucune ne parlait le même langage. Jongler entre ces multiples interfaces relevait de l’acrobatie, d’autant que certains outils se limitaient à de simples commandes cryptiques.
L’Internet Architecture Board comprit l’ampleur du défi. En 1988, l’organisme publia la recommandation RFC 1052, qui esquissait les contours d’un standard unifié pour la gestion des réseaux Internet. La mission fut confiée à l’IETF avec un délai serré : 90 jours pour concevoir ce qui allait devenir SNMP. Les contraintes étaient claires : simplicité d’implémentation et inspiration du protocole CMIP de l’ISO.
Trois documents RFC virent le jour simultanément cette année-là. Le premier introduisait la Structure of Management Information, un langage abstrait fondé sur ASN.1 pour décrire formellement les données de gestion. Le deuxième définissait la Management Information Base, cette base de données arborescente où résideraient tous les objets surveillés. Le troisième détaillait les mécanismes opérationnels du protocole proprement dit.
L’architecture reposait sur une logique manager-agent d’une simplicité désarmante. D’un côté, des agents dispersés sur chaque équipement collectaient inlassablement les informations locales. De l’autre, un manager central interrogeait ces agents à la demande ou recevait leurs alertes spontanées, appelées traps. Cette asymétrie fonctionnait remarquablement bien dans les premières installations.
Le succès rapide de SNMPv1 révéla toutefois ses faiblesses congénitales. La sécurité n’était qu’une façade : les community strings voyageaient en clair sur le réseau, accessibles à quiconque interceptait les paquets. Cette vulnérabilité n’était pas un oubli mais un choix délibéré. Les concepteurs avaient parié sur la bénignité des informations échangées et tablé sur des réseaux fermés où la confiance régnait.
Cette naïveté poussa l’IETF à développer SNMPsec au début des années 1990. Cette extension promettait authentification, chiffrement et contrôle d’accès sophistiqué. Mais sa complexité effraya les développeurs, et elle fut éclipsée par SNMPv2 en 1993.
La seconde version du protocole corrigeait des irritants de la première mouture. La MIB s’enrichissait de capacités de regroupement, rendant la description d’équipements complets plus naturelle. L’opération GetBulk permettait de récupérer massivement des données, économisant de précieux allers-retours réseau. Les notifications gagnaient en fiabilité grâce au mécanisme Inform, qui exigeait un accusé de réception.
Malheureusement, les querelles intestines au sein de la communauté de développement firent voler en éclats l’unité du standard. SNMPv2 se fragmenta en variantes incompatibles : SNMPv2, SNMPv2c, SNMPv2u, SNMPv2*. Cette cacophonie technique découragea les adoptions et maintint SNMPv1 dans une position dominante paradoxale.
L’IETF tira les leçons de ces échecs pour concevoir SNMPv3, achevé en 2002. Cette troisième version préservait les acquis de SNMPv2 tout en proposant une architecture sécuritaire modulaire. Le User-based Security Model autorisait différents algorithmes de chiffrement comme DES ou AES. Le View-based Access Control Model offrait une granularité remarquable dans la définition des permissions d’accès.
Parallèlement, des extensions spécialisées enrichissaient l’écosystème. En 1991, RMON débarqua avec des fonctions de surveillance réseau avancées adaptées aux réseaux Ethernet. RMON2 étendit six ans plus tard cette surveillance aux couches application. SMON compléta en 1999 l’arsenal avec des outils dédiés aux commutateurs et réseaux virtuels.
Pourtant, contre toute logique, SNMPv1 conserve aujourd’hui la majorité des déploiements. Sa rusticité explique cette longévité surprenante. Les versions plus récentes, techniquement supérieures, n’ont jamais réussi à convaincre massivement les praticiens, attachés à la simplicité éprouvée de la version originale.
Le protocole SNMP a validé l’approche pragmatique face aux solutions sophistiquées mais lourdes. Il a établi des principes architecturaux durables comme la séparation entre format de données et contenu, et le modèle manager-agent devenu référence universelle.
SNMP témoigne aussi de la capacité d’extension des standards Internet. Initialement limité aux équipements réseau, il supervise serveurs, onduleurs, systèmes de climatisation et une multitude d’autres dispositifs. Cette polyvalence a consolidé sa position dans l’écosystème informatique.
Les limites du protocole affleurent néanmoins avec l’évolution des infrastructures. SNMP collecte des données élémentaires mais délègue leur traitement intelligent au manager. Cette philosophie montre ses faiblesses face aux réseaux contemporains, générateurs de flots informationnels torrentiels. Des technologies comme NETCONF émergent pour répondre à ces nouvelles contraintes, sans remettre en cause l’omniprésence de SNMP dans l’existant.
ZIP
En 1989, Phil Katz et Gary Conway imaginaient-ils que leur format de compression révolutionnerait durablement l’informatique ? L’histoire du ZIP commence pourtant dans la controverse. PKWARE, leur entreprise, venait d’être attaquée en justice par Systems Enhancement Associates qui l’accusait d’avoir copié le système d’archivage ARC. Plutôt que de se défendre, Katz et Conway décidèrent de créer quelque chose de radicalement nouveau.
Le nom ZIP traduit cette ambition. Robert Mahoney, ami de Katz, suggéra ce terme pour évoquer la vitesse de leur nouvelle solution, bien supérieure aux formats concurrents. Le 14 février 1989, PKWARE et Infinity Design Concepts annoncent la mise dans le domaine public de leur format. Cette décision stratégique, véritable coup de génie, transforme instantanément ZIP en standard ouvert. La spécification technique, documentée dans le fichier APPNOTE.TXT, est accessible à tous. Les développeurs s’emparent de cette opportunité, multipliant outils et bibliothèques compatibles.
Les premières versions du format reflètent les contraintes matérielles de l’époque. PKZIP 2.04g ne peut contenir que 16 383 fichiers par archive, avec une taille maximale de 2 Go. Ces limitations correspondaient alors aux capacités des machines disponibles. L’évolution rapide du matériel informatique pousse néanmoins les concepteurs à repenser constamment leur format.
En 1993 apparaît la version 2.0 qui introduit la compression DEFLATE et le chiffrement traditionnel PKWARE. Cette mouture pose les bases de l’architecture moderne des fichiers ZIP. Trois ans plus tard, Deflate64 améliore les performances de compression. Mais c’est en 2001 que survient une transformation majeure avec la version 4.5 et l’introduction du format ZIP64. Fini la limite des 4 Go, terminée la restriction à 65 535 fichiers par archive.
L’année 2002 marque l’ouverture vers de nouvelles méthodes de chiffrement : DES, Triple DES, RC2, RC4 rejoignent l’arsenal disponible. En 2003, l’AES fait son apparition. La version 6.3.0 de 2006 franchit encore un cap en intégrant l’Unicode pour les noms de fichiers et de nouveaux algorithmes comme LZMA et PPMd. Chaque évolution témoigne d’une capacité d’adaptation remarquable aux besoins changeants des utilisateurs.
La structure interne du format ZIP révèle une conception astucieuse. Le répertoire central, placé en fin de fichier, catalogue tous les éléments de l’archive. Cette organisation autorise l’ajout ou la suppression de fichiers sans retraiter l’ensemble de l’archive. À l’époque des disquettes, où chaque opération d’écriture prenait un temps considérable, cette caractéristique représentait un avantage décisif.
Le succès du format pousse les éditeurs de systèmes d’exploitation à l’adopter nativement. Microsoft intègre le support ZIP dans Windows dès 1998 via le pack Windows Plus! pour Windows 98, baptisant cette fonctionnalité « dossiers compressés ». Apple suit en 2003 avec Mac OS X 10.3. Les systèmes libres n’ont pas tardé à emboîter le pas.
Depuis 2006, Microsoft utilise le format compressé ZIP comme base de son Office Open XML. Les fichiers .docx, .xlsx et .pptx ne sont rien d’autre que des archives ZIP contenant des fichiers XML et diverses ressources. Cette utilisation détournée illustre la polyvalence d’un format devenu infrastructure invisible de l’informatique moderne.
La reconnaissance officielle arrive en 2015 avec la publication de la norme ISO/IEC 21320-1. Cette standardisation définit un format d’archive compressé minimal, compatible avec différents standards comme OpenDocument, Office Open XML et EPUB. La norme impose toutefois des restrictions : seule la compression DEFLATE est autorisée, le chiffrement est interdit.
Les questions de sécurité ont longtemps taraude le format ZIP. Le système de chiffrement original, ZipCrypto, s’est révélé vulnérable aux attaques par texte en clair connu. Ces faiblesses ont motivé l’introduction de méthodes plus robustes. Une controverse éclate en 2003 quand WinZip intègre son propre système de chiffrement AES tandis que PKWARE maintient sa spécification concurrente. L’accord trouvé en 2004 entre les deux entreprises facilite le support mutuel de leurs formats respectifs.
L’héritage du ZIP se lit dans l’adoption de l’algorithme DEFLATE par d’autres technologies comme gzip et zlib. Le format continue sa mue : la version 6.3.8 de 2020 intègre des méthodes de compression modernes comme Zstandard, MP3 et XZ. Cette capacité d’évolution, rendue possible par une conception modulaire acceptant de nouveaux champs, assure la pérennité du format.
Trente-cinq ans après sa création, ZIP reste omniprésent. Les implémentations contemporaines supportent ZIP64 et ses archives théoriques de 16 exaoctets. Cette longévité exceptionnelle s’explique par une combinaison rare entre simplicité d’usage, compatibilité ascendante et adaptabilité technique. Phil Katz, décédé en 2000, n’aura pas vu son format traverser le nouveau millénaire et s’imposer comme l’un des piliers silencieux de l’informatique moderne.
Intel 80486
L’année 1989 voit naître le processeur Intel 80486, une puce qui marque une rupture dans l’univers des microprocesseurs. Pour la première fois dans l’histoire de la famille x86, un million de transistors se retrouvent gravés sur un seul composant. Cette prouesse technique s’accompagne d’innovations qui transforment radicalement les performances des ordinateurs personnels.
La véritable rupture du 80486 tient dans son architecture repensée. Intel intègre directement sur la puce une unité de calcul en virgule flottante, jusqu’alors cantonnée à un coprocesseur séparé, le 80387. Cette fusion simplifie la conception des cartes mères et accélère considérablement les calculs mathématiques complexes. À cette innovation s’ajoute une mémoire cache unifiée de 8 Ko, positionnée au cœur du processeur. Fini les accès lents au cache externe qui pénalisaient le 80386.
L’introduction d’un pipeline d’instructions ajoute au processeur la possibilité de traiter simultanément des étapes d’instructions différentes. Les opérations arithmétiques simples s’exécutent désormais en un seul cycle d’horloge, divisant par deux le temps nécessaire par rapport au 80386. Cette efficacité nouvelle propulse les performances bien au-delà des gains apportés par la simple augmentation de fréquence.
Les premières versions du 80486 cadencent entre 16 et 33 MHz. En 1991, Intel tente de pousser la fréquence jusqu’à 50 MHz, mais se heurte à des problèmes de dissipation thermique. La solution passe par une finesse de gravure réduite à 0,8 micromètre. Malgré ces ajustements, ce modèle rapide peine à séduire, notamment à cause de sa compatibilité limitée avec les bus locaux indispensables aux cartes graphiques de l’époque.
La gamme 80486 se diversifie. Le 486SX, version allégée dépourvue d’unité de calcul flottant, cible le marché grand public soucieux d’économies. Plus astucieux, le 486DX2 inaugure une technique qui fera école : le doublement de la fréquence interne par rapport au bus système. Cela augmente les performances sans imposer de refonte complète des cartes mères existantes. Le DX4, malgré son nom trompeur, ne quadruple pas mais triple la fréquence du bus.
Un élément juridique vient perturber la stratégie d’Intel. L’entreprise n’a plus le droit de déposer de marque sur des dénominations purement numériques commençant par « 80 ». Cette contrainte pousse Intel à repenser sa communication produit et annonce l’ère des noms de marque comme Pentium.
Le succès commercial du 80486 attire la concurrence. AMD, IBM, Texas Instruments, Cyrix, UMC et STMicroelectronics développent leurs propres versions. AMD se distingue en proposant des fréquences absentes du catalogue Intel, comme le bus à 40 MHz. La firme commercialise des modèles originaux : 486DX-40, 486DX/2-80 et 486DX/4-120. En 1995, l’Am5x86 d’AMD est le 486 le plus rapide jamais conçu, cadencé à 133 MHz, tandis que des versions expérimentales atteignent 150 et 160 MHz.
Cyrix adopte une stratégie différente en développant ses puces par rétro-ingénierie complète, sans s’appuyer sur les plans d’Intel. Les premiers modèles, 486DLC et 486SLC, constituent des solutions hybrides compatibles avec les supports 386. Handicapés par leur cache de seulement 1 Ko, ils peinent face aux 8 Ko des modèles Intel et AMD. Les versions ultérieures de Cyrix, dotées d’un cache plus généreux, arrivent hélas trop tard pour bouleverser les parts de marché.
L’âge d’or des jeux MS-DOS coïncide avec l’apogée du 80486. Le modèle DX2-66 MHz est la référence des passionnés de jeux vidéo au début des années 1990. Cette hégémonie vacille avec l’émergence de la 3D temps réel. Ces nouveaux graphismes sollicitent intensément l’unité flottante et exigent une bande passante mémoire considérable. Les développeurs commencent à optimiser leurs créations pour l’architecture P5 du Pentium, condamnant progressivement les processeurs 486.
Dans l’univers des ordinateurs personnels, le 80486 survit jusqu’aux années 2000 dans des configurations économiques. L’abandon du support de Windows 95 et les exigences croissantes des systèmes d’exploitation suivants accélèrent son obsolescence. Paradoxalement, Intel maintient la production jusqu’en septembre 2007 pour alimenter le marché des systèmes embarqués.
Cette puce incarne une période où les performances informatiques progressent à un rythme effréné, permettant de nouvelles applications et accélérant la démocratisation de l’outil informatique.
Intel i960
Intel frappe un grand coup en septembre 1989 avec le lancement du i960CA, son premier processeur superscalaire 32 bits dédié aux systèmes embarqués. Cette puce marque une rupture dans l’univers du calcul embarqué en exécutant des instructions simultanément à chaque cycle d’horloge. Le résultat ne se fait pas attendre avec 66 MIPS, un chiffre qui fait sensation à l’époque.
La philosophie derrière le i960 surprend par son audace. Intel marie le cœur RISC traditionnel avec ses 32 registres à un jeu d’instructions enrichi qui emprunte au monde CISC. Ce mélange des genres, loin d’être un compromis bancal, répond avec précision aux contraintes particulières des applications embarquées. Les ingénieurs d’Intel ont su doser cette hybridation pour créer un processeur qui tire le meilleur des deux mondes.
La famille s’étoffe, le i960CF succède au CA et double ses performances grâce à une mémoire cache repensée. Intel décline ensuite sa création selon une logique commerciale bien rodée : les SA/SB pour les budgets serrés, les KA/KB pour le milieu de gamme, et les versions MC durcies pour les applications militaires. Cette stratégie de gamme témoigne d’une approche industrielle mûre.
Sous le capot, les innovations foisonnent. Le contrôleur d’interruptions ne se contente pas de gérer les priorités, il le fait de manière autonome. Les registres locaux se sauvegardent sans intervention lors des appels de sous-programmes, éliminant une source traditionnelle de latence. Les caches d’instructions équipent tous les modèles, tandis que certaines versions bénéficient de caches de données qui accélèrent les traitements répétitifs.
Les transferts de données atteignent 160 Mo par seconde sur les bus haute performance, une vitesse remarquable. Cette capacité transforme la gestion des flux d’informations dans les applications gourmandes. La compatibilité du code objet entre les différents modèles constitue un atout majeur : les développeurs peuvent migrer leurs applications sans repartir de zéro, un gage de pérennité apprécié.
L’intégration pousse l’innovation plus loin. Le modèle VH rassemble sur une seule puce une interface PCI v2.1 32 bits à 33 MHz, un contrôleur mémoire et diverses fonctionnalités périphériques. Cette concentration réduit les coûts, l’encombrement et la consommation, trois paramètres critiques dans l’embarqué.
Les domaines d’application du i960 dessinent une cartographie impressionnante. Les réseaux l’adoptent pour leurs contrôleurs de communication, leurs ponts et leurs routeurs. L’imagerie médicale, particulièrement l’échographie, exploite ses capacités de traitement. L’automatisation industrielle, la robotique et la vision artificielle trouvent dans ce processeur un allié de choix. Le secteur aérospatial l’intègre dans ses équipements de contrôle de vol et ses systèmes de navigation par satellite.
Intel ne se limite pas au silicium. Le programme Solutions960 fédère plus de 200 outils développés par 70 entreprises partenaires. Compilateurs optimisés, systèmes d’exploitation, outils de débogage, cartes d’évaluation : l’écosystème prend forme autour du processeur. Cette richesse logicielle transforme l’adoption du i960 en expérience fluide pour les développeurs.
Le contrôleur de DMA intégré impressionne par ses performances : 59 Mo/s en transferts « fly-by », 32 Mo/s en transferts deux cycles. Le contrôleur d’interruptions gère jusqu’à 248 sources externes avec 32 niveaux de priorité programmables. La mémoire cache verrouillable garantit l’exécution optimale des algorithmes critiques, une fonctionnalité précieuse dans les systèmes temps réel.
La spécialisation guide le développement des différentes versions. Les modèles réseau traitent les paquets sans saturer, tandis que ceux dédiés à l’imagerie s’adaptent aux différentes largeurs de bus et conventions de données. Cette approche ciblée renforce l’attractivité des processeurs selon leur domaine d’application.
L’exécution superscalaire s’est démocratisée, l’intégration de périphériques sur la puce principale est devenue la norme, l’importance d’un écosystème de développement complet reste d’actualité. La fin des années 1990 voit naître de nouvelles architectures concurrentes qui bousculent le paysage. Le i960 aura néanmoins tracé la voie vers des solutions toujours plus intégrées et performantes.
World Wide Web
En cette fin d’année 1989, Tim Berners-Lee travaille au CERN à Genève. L’informaticien britannique se heurte quotidiennement au même problème : comment retrouver une information dans cette tour de Babel qu’est devenue l’organisation européenne de recherche nucléaire ? Les chercheurs accumulent des documents sur leurs expériences, leurs équipements, leurs découvertes, mais tout cela reste dispersé, inaccessible. Berners-Lee imagine alors un système pour relier ces informations éparses.
Depuis des décennies, des visionnaires rêvent de machines à organiser le savoir humain. Paul Otlet avait esquissé son Mundaneum dès 1934, une bibliothèque universelle connectée. Vannevar Bush théorise en 1945 le Memex dans « As We May Think », une machine capable de naviguer entre des documents liés par associations d’idées. Ted Nelson baptise « hypertexte » cette navigation non-linéaire en 1965 avec son projet Xanadu, qui ne verra jamais le jour malgré des décennies de développement. Apple concrétise une partie de ces rêves en 1987 avec HyperCard, premier succès commercial de l’hypertexte.
Berners-Lee tranche dans le vif. Plutôt que de concevoir un système complexe, il mise sur la simplicité. En 1990, avec l’aide de Robert Cailliau, il jette les bases de son architecture : l’URL identifie chaque ressource de manière unique, le protocole HTTP organise les échanges entre machines, le langage HTML structure les documents et leurs liens. Dans la foulée, il développe le premier navigateur Web qu’il appelle WorldWideWeb, avant de le renommer Nexus.
Le premier site Web s’allume le 6 août 1991 à l’adresse info.cern.ch. Tim Berners-Lee y explique ce qu’est le World Wide Web, comment créer des pages, comment installer un navigateur. L’information se propage sur les forums Usenet. L’année suivante, les Cernettes, groupe de musique formé par des employées du CERN, voient leur photo devenir la première image non scientifique publiée sur le Web. Un clin d’œil qui annonce la démocratisation à venir.
Le tournant survient le 30 avril 1993. Ce jour-là, le CERN renonce à ses droits d’auteur sur les technologies du Web et les place dans le domaine public. Cette décision, en apparence anodine rétrospectivement, change tout. N’importe qui peut désormais utiliser, modifier, distribuer le code sans contrainte. Les universités s’emparent de la technologie, les entreprises suivront.
Marc Andreessen saisit l’opportunité. En 1994, son navigateur Mosaic révolutionne l’expérience utilisateur avec son interface graphique intuitive. Exit les lignes de commande et les interfaces austères : le Web devient accessible au grand public. Cette année naît aussi le World Wide Web Consortium sous la direction de Berners-Lee. Cette organisation fixe les standards techniques du Web.
1995 marque l’entrée fracassante du commerce sur la toile. Yahoo! lance son annuaire, classant méticuleusement les sites par catégories. Jeff Bezos ouvre sa librairie Amazon depuis son garage de Seattle. Microsoft intègre Internet Explorer dans Windows 95, déclenchant la première guerre des navigateurs contre Netscape. Le Web n’est plus seulement un outil de recherche, c’est aussi un marché.
Trois ans plus tard, deux étudiants de Stanford bouleversent la donne. Larry Page et Sergey Brin créent Google avec leur algorithme PageRank, qui classe les pages selon leur popularité mesurée par les liens entrants. Cette approche mathématique de la pertinence transforme radicalement la recherche d’information. Le Web est le point d’entrée universel vers le savoir numérique.
L’évolution se poursuit par vagues successives. Le Web des premiers temps, celui de 1989 à 2005, ressemble à une immense bibliothèque. Les sites restent statiques, les utilisateurs se contentent de lire. HTML, HTTP et les protocoles de base suffisent à faire fonctionner cet univers encore simple.
Entre 2004 et 2016, tout bascule vers l’interaction avec ce qu’on appellera plus tard le Web 2.0. Les utilisateurs ne se contentent plus de consulter ; ils créent, partagent, commentent. Facebook ouvre ses portes en 2004, YouTube suit en 2005. JavaScript, XML et Ajax enrichissent les interfaces, les rendent dynamiques et réactives.
À partir de 2015 émerge une troisième génération, le Web sémantique. L’ambition change d’échelle : il s’agit de rendre l’information compréhensible par les machines elles-mêmes. RDF, RDFS et OWL structurent les données pour que les ordinateurs puissent en saisir le sens, pas seulement l’afficher.
Le protocole HTTP accompagne ces mutations. Sa version 1.1, standardisée en 1997, introduit les connexions persistantes qui évitent de renégocier chaque échange. HTTP/2 arrive en 2015 avec le multiplexage des flux, qui autorise plusieurs requêtes simultanées sur une seule connexion. HTTP/3, finalisé en 2022, abandonne TCP au profit de QUIC basé sur UDP, gagnant en vitesse.
L’apparition de l’AppStore d’Apple en 2008 redéfinit l’accès au Web. Les applications mobiles complètent le navigateur traditionnel, parfois le remplacent. Le Web sort des ordinateurs pour s’installer dans nos poches, nos voitures, nos montres. Cette ubiquité était impensable en 1989.
L’architecture imaginée par Berners-Lee a résisté à toutes ces transformations. La séparation entre contenu et présentation, les identifiants uniques pour chaque ressource, la standardisation des protocoles : ces choix techniques ont permis une extension continue sans rupture majeure. Le modèle client-serveur et l’architecture REST offrent un cadre assez souple pour accueillir tous les usages.
Bien sûr, le Web actuel ressemble peu au système documentaire pensé au CERN. Il a modifié nos façons de communiquer, de nous informer, de commercer, de travailler. Si certaines dérives inquiètent (concentration des services entre quelques acteurs, exploitation des données personnelles, désinformation) la vision de Berners-Lee d’un espace d’information universel et décentralisé s’est largement réalisée.
Microsoft Office
Le 1er août 1988, dans l’effervescence de Las Vegas, Bill Gates prend la parole pour annoncer une suite logicielle destinée au travail de bureau. À cette époque, personne ne mesure vraiment l’ampleur de ce qui se joue. Pourtant, cette annonce lance une aventure qui bouleversera les habitudes de travail partout dans le monde.
Deux ans plus tard, en 1990, la première version de Microsoft Office voit le jour. Elle rassemble trois programmes que l’on peut qualifier désormais de basiques : Word pour écrire, Excel pour calculer, PowerPoint pour présenter. Cette combinaison n’a rien d’anodin. Microsoft a flairé le besoin d’avoir sous la main tous les outils nécessaires au quotidien professionnel, sans jongler entre différents éditeurs et leurs logiques parfois contradictoires.
L’histoire de Word commence en réalité bien avant, dès 1981, quand Microsoft embauche Charles Simonyi pour développer un traitement de texte. La première version sort en 1983, mais elle déroute. WordPerfect règne en maître et les utilisateurs ne comprennent pas cette interface si différente. Microsoft ne baisse pas les bras. Une version Macintosh arrive en 1985, puis en 1987 le format RTF fait son apparition, simplifiant enfin l’échange de documents entre systèmes différents.
Excel, de son côté, s’impose comme la référence des tableurs. Le logiciel sait gérer des calculs complexes, dessiner des graphiques et analyser des données grâce aux tableaux croisés dynamiques. Avec l’arrivée de Visual Basic pour Applications, les utilisateurs peuvent programmer des automatisations et se libérer des tâches répétitives.
PowerPoint a une genèse particulière. Initialement baptisé Presenter par la société Forethought, Microsoft le rachète en 1987 pour 14 millions de dollars. Robert Gaskins suggère alors le nouveau nom. Ce logiciel transforme radicalement la façon de concevoir et de présenter. Dans sa première mouture de 1990, impossible de revenir en arrière dans les diapositives, et les options de personnalisation restent limitées.
Microsoft sort Windows 95 et Office 95 simultanément... en 1995. Cette synchronisation n’est pas fortuite : l’intégration poussée entre le système d’exploitation et la suite bureautique crée un environnement de travail uniforme qui séduit massivement les entreprises. Les ventes explosent et Microsoft établit son hégémonie.
La suite s’enrichit progressivement. Access arrive pour gérer les bases de données, Publisher pour créer des supports marketing, OneNote pour prendre des notes numériquement. Outlook complète l’ensemble en gérant e-mails et calendriers. Chaque ajout renforce l’attractivité de l’écosystème.
Microsoft doit s’adapter aux évolutions technologiques. Des versions voient le jour pour Windows et macOS. L’entreprise développe des applications mobiles comme Office Lens et Office Remote pour suivre les nouveaux usages. SharePoint et Skype for Business Server étendent les capacités collaboratives vers les serveurs d’entreprise.
L’avènement du cloud computing redistribue les cartes. Office Web Apps propose une version allégée accessible par navigateur. Office 365 révolutionne ensuite le modèle économique en passant à l’abonnement. Cette mutation répond aux attentes de mobilité et de collaboration temps réel des utilisateurs contemporains.
La cohérence de la suite se renforce au fil des versions. Le correcteur orthographique se partage, les données circulent entre applications, l’interface s’harmonise. Apprendre un logiciel de la suite facilite la maîtrise des autres. Le format .docx, introduit avec Office 2007, améliore compatibilité et sécurité des documents.
L’éducation est un terrain de conquête stratégique. Des générations d’élèves et d’étudiants apprennent sur Office, créant une base d’utilisateurs familiers de ces outils. La disponibilité en 35 langues accélère l’adoption mondiale. Elle déroute initialement les habitués, mais l’interface ribbon de 2007 modernise l’accès aux fonctionnalités.
Office façonne les pratiques professionnelles contemporaines. Word impose ses standards de mise en forme documentaire. Excel révolutionne l’analyse de données dans les entreprises et la gestion financière. PowerPoint redéfinit les codes de la communication d’entreprise, et ces pratiques perdurent dans l’univers numérique.
Cette histoire reflète les mutations du travail de bureau depuis les années 1990. D’une collection de trois logiciels, Office se mue en écosystème complet mêlant services cloud, applications mobiles et outils collaboratifs. Cette capacité d’adaptation continue explique sa longévité dans un secteur pourtant mouvant.
NeXTSTEP
Quand Steve Jobs quitte Apple en 1985, il emporte avec lui une idée fixe : créer l’ordinateur parfait. Cette obsession donnera naissance à l’une des aventures les plus fascinantes de l’histoire informatique, celle de NeXTSTEP. Voilà un système d’exploitation qui va bouleverser les codes établis.
Dans l’informatique du milieu des années 1980, les interfaces graphiques se cherchent, les systèmes plantent au moindre faux pas, la programmation relève du parcours du combattant. Jobs et son équipe de NeXT Computer décident de repartir de zéro. Leur pari était de marier la robustesse d’UNIX à une interface nouvelle. Ils choisissent BSD comme système de base, y greffent le noyau Mach, et voilà leur machine de guerre prête à défier l’industrie.
Mais la vraie audace de NeXTSTEP tient dans son architecture entièrement orientée objet. Là où ses concurrents bricolent avec du code procédural, NeXT mise tout sur Objective-C. Cette décision paraît folle à l’époque pour qui veut comprendre cette approche. Les développeurs vont-ils suivre ? L’équipe persiste et transfore chaque composant du système en objet : les fenêtres, les boutons, les fichiers, les processus. Cette cohérence architecturale transforme l’expérience utilisateur.
L’interface de NeXTSTEP frappe par son élégance. Display PostScript assure un rendu graphique d’une précision chirurgicale. Ce que vous voyez à l’écran correspond exactement à ce que l’imprimante produira. Le fameux Dock fait sa première apparition, cette barre d’icônes qui simplifie l’accès aux applications. Innovation plus discrète mais tout aussi remarquable : le Workspace Manager propose une navigation en colonnes qui révolutionne la gestion des fichiers.
NeXTMail pousse plus loin l’intégration multimédia. Envoyer une image dans un message électronique ? Un fichier son ? Un document formaté ? Rien de plus simple. Cette vision moderne de la messagerie devance son temps de plusieurs années. Les autres systèmes peinent à afficher correctement du texte simple quand NeXT propose déjà l’équivalent des e-mails enrichis qu’on connaît.
Interface Builder révolutionne le développement logiciel. Fini le codage laborieux des interfaces : les programmeurs assemblent désormais leurs fenêtres visuellement, par glisser-déposer. Cette approche inspire encore les outils actuels. Les Services introduisent une interopérabilité inédite entre applications. Retoucher une image depuis un traitement de texte devient un jeu d’enfant.
Le système de fichiers de NeXTSTEP anticipe nos besoins contemporains. Les métadonnées extensibles permettent d’enrichir chaque fichier d’informations contextuelles. Le Digital Librarian indexe l’ensemble des documents et propose des recherches sophistiquées dans toute la machine. Google Desktop et Spotlight reprendront cette idée vingt ans plus tard.
Tim Berners-Lee choisit une station NeXT pour inventer le Web au CERN. Ce choix n’est pas anodin puisque les outils de développement de NeXTSTEP permettent de prototyper des applications complexes. Le premier navigateur web et le premier serveur web naissent sur cette plateforme. Wall Street s’intéresse aussi au système. Les banques d’investissement découvrent sa stabilité et adoptent les stations NeXT pour leurs applications critiques.
Mais l’excellence technique ne suffit pas. Le prix prohibitif des machines NeXT freine leur adoption. Seuls les professionnels fortunés et quelques universités peuvent se les procurer. Le grand public reste inaccessible. En 1994, NeXT abandonne le matériel et se recentre sur le logiciel. OPENSTEP, la version portable de NeXTSTEP, fonctionne sur différentes architectures. Cette stratégie élargit l’audience mais arrive peut-être trop tard.
Le rachat par Apple en 1996 relance tout. NeXTSTEP renaît sous les traits de Mac OS X. L’ADN du système de Jobs façonne le nouveau système d’Apple : architecture orientée objet, frameworks Cocoa, philosophie de l’interface utilisateur. iOS hérite directement de cette lignée. L’iPhone et l’iPad doivent beaucoup aux innovations de NeXTSTEP.
Cette histoire prouve qu’en informatique, l’avance technologique finit toujours par payer. Les meilleures idées survivent aux échecs commerciaux et trouvent leur chemin vers le succès.
Si ce contenu vous a plu, vous pouvez soutenir ce projet en faisant un don ou en commandant l'édition papier sur Lulu ou Amazon. Tout le contenu reste librement accessible sous licence CC BY-SA 4.0.