Stéphane FOSSE

EPOCH


EPOCH © 2025 par - Ce livre est publié selon les termes de la licence CC BY-SA 4.0

Épilogue

Ce livre s’achève là où commence peut-être la plus grande rupture technologique de notre histoire. Les technologies racontées ici appartiennent déjà au passé. Certaines survivent, d’autres ont disparu. Mais ce qui se profile maintenant dépasse en ampleur tout ce que nous avons connu depuis l’invention du transistor.

L’informatique quantique n’est plus une promesse lointaine. Google a démontré en 2024 qu’un de ses processeurs quantiques était 13 000 fois plus rapide que le supercalculateur le plus puissant du monde. IBM prévoit de livrer des systèmes capables d’exécuter 15 000 opérations quantiques d’ici 2028. Les investissements publics ont atteint 10 milliards de dollars en 2025, contre 1,8 milliard l’année précédente. Ces chiffres traduisent une accélération brutale. Le seuil de correction d’erreur, qui a longtemps bloqué toute application pratique, commence à être franchi. La simulation de molécules complexes pour la découverte de médicaments, l’optimisation de processus industriels ou la création de nouveaux matériaux deviennent envisageables à court terme. Mais le quantique menace les systèmes de chiffrement actuels, qui tomberont comme des châteaux de cartes face à ces machines. La course est déjà lancée pour développer des algorithmes post-quantiques avant que les premiers ordinateurs vraiment opérationnels ne sortent des laboratoires.

L’intelligence artificielle a franchi en quelques années le mur qui séparait l’expérimentation de l’usage massif. Elle s’invite partout, et c’est bien l’héritaged es matériels, des systèmes, des langages et des logiciels présentés dans ce livre (mais pas que) qui ont rendu son développement et son exécution possibles. Dans les systèmes de recommandation, les assistants vocaux, la génération de textes et d’images, la conduite autonome. Mais cette omniprésence révèle des failles. Les modèles d’IA peuvent être manipulés, biaisés, détournés. Leur consommation énergétique explose. Un seul modèle de langage de dernière génération nécessite autant d’électricité qu’une petite ville pendant son entraînement. Les centres de données se multiplient pour absorber cette demande. Et personne ne sait vraiment où cette trajectoire nous mène. Les questions éthiques s’accumulent plus vite que les réponses. Qui contrôle ces systèmes ? Qui en est responsable quand ils se trompent ? Comment garantir qu’ils ne reproduisent pas les discriminations présentes dans leurs données d’apprentissage ? L’Europe tente de réguler avec l’AI Act, mais la technologie avance plus vite que les textes législatifs, très statiques.

Les cyberattaques ont changé d’échelle. En 2024, le coût moyen d’une violation de données a atteint 4,88 millions de dollars, en hausse de 10% sur un an. Les rançongiciels représentent 59% des attaques subies par les organisations. Le montant moyen d’une rançon payée dépasse les 2 millions de dollars. Les hôpitaux, les infrastructures critiques, les systèmes de transport sont devenus des cibles privilégiées. En 2024, l’attaque contre Change Healthcare a perturbé le traitement des réclamations médicales pour plus de 100 millions d’Américains. Snowflake a vu les données de plus de 100 de ses clients exfiltrées, dont AT&T, Ticketmaster et Santander. Les failles non corrigées restent la principale porte d’entrée : 20% des violations commencent par l’exploitation d’une vulnérabilité connue mais non patchée. Le délai moyen pour identifier et contenir une violation est de 241 jours. Plus de neuf mois pendant lesquels les attaquants peuvent se déplacer librement dans les systèmes. Face à cela, les moyens restent dérisoires. Les entreprises recrutent des équipes de sécurité qu’elles peinent à former et à conserver. L’automatisation par l’IA des défenses commence à montrer son efficacité, avec une réduction de 108 jours du temps de détection pour ceux qui l’utilisent. Mais l’IA sert aussi les attaquants, qui automatisent la reconnaissance, l’exploitation et l’exfiltration. La bataille se joue désormais à vitesse machine.

Les interfaces cerveau-machine sortent des laboratoires. Neuralink a implanté ses premiers volontaires en 2024. Un patient tétraplégique contrôle désormais un curseur d’ordinateur par la pensée pour jouer aux échecs. D’autres entreprises comme Synchron ou Precision Neuroscience ont des approches moins invasives. En 2025, une vingtaine d’essais cliniques sont en cours. Les applications médicales visent d’abord les personnes paralysées, celles atteintes de la maladie de Charcot ou d’autres maladies neurodégénératives. Mais l’ambition affichée est de restaurer la vision chez les aveugles avec des prothèses visuelles, augmenter les capacités cognitives, fusionner l’intelligence humaine et artificielle. Ces projets posent des questions vertigineuses. Où commence l’humain, où finit la machine quand une puce lit et modifie l’activité cérébrale ? Les risques d’usage détourné sont immenses. Qui garantit qu’un État ou une entreprise ne cherchera pas à surveiller ou manipuler les pensées via ces dispositifs ? Les garde-fous éthiques existent sur le papier. Leur application dans un contexte de compétition internationale acharnée reste à prouver.

L’expérience utilisateur bascule vers de nouveaux paradigmes. Les lunettes de réalité augmentée émergent comme le prochain grand écran après le smartphone. Meta, Apple, Google, Xreal, tous investissent massivement. Les lunettes Ray-Ban Meta intègrent déjà l’IA pour identifier des objets en temps réel. Les modèles de 2025 affichent des informations directement dans le champ de vision avec un angle de 70 degrés. Le marché devrait passer de 678 600 unités en 2023 à 13 millions en 2030. Ces dispositifs changent la façon dont nous interagissons avec l’information. Plus besoin de sortir son téléphone : les directions flottent sur le trottoir, les traductions apparaissent en surimpression, les notifications se superposent au monde réel. Mais cette fusion du physique et du numérique soulève des inquiétudes. La surveillance devient permanente avec des caméras toujours actives. La vie privée s’efface devant la collecte incessante de données. Les tablettes ont échoué à remplacer le PC parce qu’elles n’offraient pas assez de puissance pour les tâches complexes. Les lunettes AR pourraient réussir là où elles ont échoué en libérant les mains tout en donnant accès à un espace de travail virtuel illimité. L’ordinateur portable et le smartphone survivront-ils à cette transition ? Difficile à dire. Certains prédisent que d’ici cinq ans, les lunettes AR remplaceront le smartphone comme dispositif principal. D’autres estiment qu’il faudra une décennie de plus pour franchir les obstacles techniques et culturels.

Porterons-nous tous une puce sous la peau ou dans le cerveau connectée en Wi-Fi à internet ? L’idée ne relève plus de la science-fiction. Des implants RFID sont déjà utilisés pour des paiements sans contact ou l’accès à des bâtiments sécurisés. Des milliers de personnes ont franchi le pas. Mais l’implant cérébral généralisé reste un horizon lointain. Les obstacles techniques sont immenses. La biocompatibilité sur le long terme n’est pas garantie. Les risques d’infection ou de rejet existent. Et surtout, l’acceptabilité sociale reste très faible. Peu de gens accepteraient aujourd’hui de se faire percer le crâne pour améliorer leurs performances cognitives. Les lunettes ou les lentilles de contact augmentées représentent une voie moins invasive et probablement plus acceptable. Plusieurs entreprises travaillent sur des lentilles capables d’afficher des informations ou de mesurer des paramètres physiologiques. Mais la miniaturisation des composants et la gestion de l’énergie posent encore problème. Il faudra sans doute attendre les années 2030 pour voir ces dispositifs sortir des prototypes.

Les infrastructures informatiques des entreprises se complexifient. Le cloud hybride, les architectures microservices, les conteneurs, l’edge computing créent des environnements d’une sophistication inédite. Gérer ces systèmes demande des compétences coûteuses. L’automatisation par l’IA promet de simplifier cette gestion, mais elle introduit de nouvelles dépendances. Que se passe-t-il quand un système critique repose sur un modèle d’IA dont personne ne comprend vraiment le fonctionnement interne ? Les défaillances deviennent plus difficiles à diagnostiquer. Les réglementations se durcissent. Le RGPD en Europe, les lois sur la protection des données en Californie et ailleurs imposent des contraintes croissantes. Les entreprises doivent tracer l’origine des données, documenter leur traitement, garantir leur sécurité. Les amendes pour non-conformité se chiffrent en centaines de millions. Cette pression réglementaire pousse vers plus de transparence, mais elle ralentit aussi l’innovation. Trouver l’équilibre entre protection des utilisateurs et agilité des acteurs économiques reste un défi non résolu.

Le retour des conflits géopolitiques accélère la militarisation de l’informatique. L’IA embarquée dans des drones, des robots terrestres ou des systèmes d’armes autonomes devient une réalité opérationnelle. Boston Dynamics a beau promettre de ne pas armer ses robots, d’autres n’ont pas ces scrupules. Le robot Spot est testé par plusieurs armées pour des missions de reconnaissance en zone hostile. Des variantes équipées de capteurs CBRN détectent les menaces chimiques, biologiques ou radiologiques. Des prototypes armés circulent déjà dans certains pays. La Chine, les États-Unis, la Russie, Israël développent tous des systèmes d’armes dirigés par l’IA. La décision de tirer peut déjà être prise par un algorithme dans certaines configurations. Les traités internationaux peinent à suivre. L’interdiction des armes autonomes létales est discutée depuis des années sans aboutir. Chaque État craint de prendre du retard face à ses adversaires. Cette course épuise les ressources, mais personne n’ose ralentir. L’informatique devient un enjeu de souveraineté au même titre que l’énergie ou l’accès aux matières premières. Les semi-conducteurs, les données, les algorithmes d’IA sont désormais des armes stratégiques. Les sanctions et les restrictions d’exportation se multiplient. La fragmentation du monde numérique en blocs géopolitiques rivaux s’accentue.

Quelles technologies faudra-t-il inventer pour faire face à tout cela ? Le chiffrement post-quantique est en cours de développement, mais son déploiement à grande échelle prendra des années. Les architectures zero-trust, où aucun acteur n’est considéré comme fiable par défaut, se déploient péniblement. L’informatique confidentielle, qui protège les données même pendant leur traitement, progresse. Mais chaque nouvelle couche de sécurité ajoute de la complexité et ralentit les systèmes. Trouver le bon compromis entre protection et performance reste un art plus qu’une science. Les technologies de vérification formelle, qui prouvent mathématiquement qu’un programme fait exactement ce qu’on attend de lui, pourraient se démocratiser. Aujourd’hui cantonnées aux systèmes critiques comme l’aéronautique ou le nucléaire, elles pourraient s’étendre à d’autres domaines si les outils deviennent plus accessibles. L’informatique quantique elle-même pourrait apporter des solutions en matière de cryptographie ou de simulation de systèmes complexes. Mais elle ne sera pas une baguette magique. Chaque avancée ouvre de nouveaux problèmes.

L’histoire de l’informatique nous a appris une chose : les ruptures ne sont jamais celles qu’on attend. Personne n’avait prévu l’ampleur du web dans les années 1990. Personne n’avait anticipé l’explosion des smartphones après 2007. Personne ne sait vraiment quelle technologie va bouleverser la prochaine décennie. Les paris sont ouverts. Mais une certitude demeure : l’informatique continuera de se réinventer, de nous surprendre, de nous obliger à repenser nos façons de travailler, de communiquer, de penser. Ce livre raconte un morceau d’une histoire qui ne s’arrête jamais. Chaque point final est un nouveau point de départ. Les technologies que nous utiliserons dans dix ans existent peut-être déjà, quelque part dans un laboratoire, sous la forme d’un prototype que personne ne prend encore au sérieux. Ou peut-être n’existent-elles pas encore, attendant qu’une idée fulgurante traverse l’esprit d’un chercheur ou d’un ingénieur quelque part dans le monde.

Mais quelles libertés sommes-nous prêts à céder pour plus de sécurité ou de confort ?

Si ce contenu vous a plu, vous pouvez soutenir ce projet en faisant un don ou en commandant l'édition papier sur Lulu ou Amazon. Tout le contenu reste librement accessible sous licence CC BY-SA 4.0.