Lorsque Shy Robotics est né en 2011, la robotique était encore un monde timide. Prometteur, fascinant, mais discret. Les prototypes brillaient dans les labos, les vidéos circulaient sur YouTube, et tout le monde parlait d’un futur proche… qui ne venait jamais vraiment. C’est de cette retenue, de ce décalage entre les promesses et la réalité, qu’est né notre nom.

Aujourd’hui, quatorze ans plus tard, l’attente en valait la peine. Ce que nous voyons émerger en 2025 n’est plus de l’expérimentation : c’est de l’exécution. La robotique sort enfin du champ des possibles pour entrer dans celui des opérations concrètes. Trois dynamiques clés redessinent le paysage : une nouvelle manière d’apprendre, une nouvelle façon d’apparaître, et une volonté stratégique militaire.

Les robots apprennent désormais comme nous : par immersion

En 2011, la robotique semblait à l’aube d’un nouveau chapitre, mais ses bases restaient classiques. La Google Car — prototype emblématique — impressionnait le monde en roulant seule dans les rues de Mountain View. Pourtant, sous le capot, il n’était pas encore question de deep learning. Le véhicule reposait sur une pile technologique rigoureuse mais conventionnelle : un LIDAR tournant à 360°, un GPS différentiel, des caméras, et des algorithmes de SLAM (Simultaneous Localization and Mapping) pour reconstituer l’environnement et s’y localiser. On utilisait encore des filtres de Kalman, des plans HD cartographiés manuellement, et beaucoup de règles.

C’est dans ce contexte que Sebastian Thrun, qui dirigeait le projet, lança Udacity, un MOOC pionnier qui proposait d’enseigner l’intelligence artificielle et la robotique à l’échelle mondiale. Une rupture culturelle plus que technique, mais qui annonçait ce qui allait suivre.

Aujourd’hui, le paradigme a changé de fond en comble. Les robots n’obéissent plus à des instructions codées ligne par ligne. Ils apprennent. Le passage aux réseaux neuronaux profonds, aux modèles de fondation et à l’apprentissage auto-supervisé a bouleversé le rapport entre les machines et leur environnement. Désormais, un robot peut assimiler des concepts à partir de données brutes — vidéo, image, son — et en tirer des comportements utiles sans qu’on lui dise explicitement quoi faire.

Prenez Cosmos, le modèle développé par Nvidia. Il a ingéré plus de 20 millions d’heures de vidéos pour générer des mondes virtuels réalistes dans lesquels les robots peuvent s’entraîner. Là où, en 2011, il fallait coder à la main chaque cas ou filmer chaque variation du réel, Cosmos permet aujourd’hui de créer des hôpitaux entiers en simulation, avec leurs imperfections, leur désordre, leurs imprévus. Le robot apprend à improviser. Pas à obéir.

Même logique côté terrain avec Tesla. La conduite autonome ne repose plus sur des cartes fixes ou des règles manuelles, mais sur un apprentissage massif à partir des millions de kilomètres parcourus. Chaque voiture Tesla contribue à former le modèle commun, qui apprend en continu des réussites et des erreurs de la flotte. Ce n’est plus de la programmation distribuée. C’est de la mémoire collective en réseau.

Ce changement radical a été rendu possible par une conjonction d’accélérations : montée en puissance des GPU, disponibilité massive de données non structurées, et maturité des algorithmes d’IA profonde. En moins d’une décennie, la robotique est passée du mode “scripté” au mode “entraîné”. Et cette transition change absolument tout.

Les humanoïdes ne dansent plus, ils travaillent

Pendant longtemps, les robots humanoïdes ont été les vedettes de spectacles technologiques plus que des outils de production. On se souvient de ASIMO, le robot vedette de Honda, qui saluait les foules, montait des escaliers et versait du café lors des salons.

Ou encore de Pepper, lancé par Aldebaran Robotics (avant son rachat par SoftBank), qui animait des boutiques ou des conférences en débitant des phrases préprogrammées avec une gestuelle rassurante. Même Atlas, le robot acrobate de Boston Dynamics, devenu célèbre pour ses saltos et chorégraphies virales, relevait plus de la performance de cirque algorithmique que de la productivité industrielle.

Atlas en 2011

Atlas en 2025

Mais en 2025, ce n’est plus la mise en scène qui impressionne. C’est la mise en production.

La startup Agility Robotics en est un exemple frappant. Elle a commencé à déployer sa flotte de robots Digit dans les entrepôts de GXO Logistics, qui gère la logistique pour des géants comme Nike et Nestlé. Ces humanoïdes marchent, saisissent des colis, les déposent sur des convoyeurs.

Rien d’extraordinaire à l’œil nu. Mais tout change dans la nature du geste : il est utile, répétable, monétisable. Et aussitôt, les limites du réel apparaissent : batteries de 18 kg offrant à peine 2 à 4 heures d’autonomie, stations de recharge parfois bloquées par un carton mal placé, dépendance critique à un réseau Wi-Fi fiable. L’humanoïde n’est plus sur une scène. Il est dans le cambouis.

En parallèle, BMW teste les robots humanoïdes de Figure AI, une startup valorisée à plus de 2,6 milliards de dollars après à peine deux ans d’existence. Le modèle ? Un robot bipède conçu pour être intégré dans des chaînes de montage humaines, sans tout reconstruire autour de lui. Objectif : faire du “plug-and-play” d’intelligence mécanique.

De son côté, Elon Musk affirme que Optimus, le robot de Tesla, permettra bientôt de rendre le travail physique “optionnel”. Il a déjà été filmé en train de plier un t-shirt. Une vidéo comme au bon vieux temps. Mais la promesse, cette fois, n’est pas de faire rêver le public. Elle est de faire tourner les usines.

Reste à voir si les humanoïdes peuvent tenir le rythme. Car en dehors du spectacle, les robots doivent désormais livrer. Au sens propre.

L’armée donne le tempo

istoriquement, la robotique et le monde militaire entretiennent des liens profonds, presque symbiotiques. Avant d’imaginer des robots qui plient du linge ou livrent des colis, les premiers usages concernaient la reconnaissance, le déminage, la surveillance. Quand j’ai eu l’occasion d’interviewer Colin Angle, cofondateur de iRobot, il m’a confirmé que derrière le succès domestique du Roomba se cachait une toute autre origine : des années de recherche financées par l’armée américaine. À ses débuts, iRobot développait des plateformes robotiques pour l’exploration de terrains minés ou contaminés, et ses contrats militaires ont longtemps été le vrai moteur économique de l’entreprise.

Ce lien n’est pas marginal. Il est structurel. Une bonne partie de l’innovation robotique moderne vient des appels d’offres ou des concours pilotés par la DARPA, la Defense Advanced Research Projects Agency. Cette agence, rattachée au Département de la Défense américain, a pour mission de financer des technologies radicalement nouvelles susceptibles de renforcer la supériorité militaire des États-Unis. Elle fonctionne avec une liberté et une agilité qui n’ont rien à envier aux meilleurs fonds de capital-risque. C’est elle qui, dès 2004, a organisé le DARPA Grand Challenge, à l’origine des premiers véhicules autonomes (dont la Google Car). Plus tard, le DARPA Robotics Challenge a donné naissance à une génération de robots bipèdes, parmi lesquels Atlas de Boston Dynamics.

Ce soutien structurel à l’innovation ne s’est pas limité aux géants. De nombreuses startups “civiles” doivent en réalité leur décollage à des contrats militaires. Skydio, Anduril, Shield AI, Saildrone — toutes ont profité, à un moment ou un autre, d’une commande gouvernementale ou d’un financement lié à la défense.

Et ce lien stratégique est plus actuel que jamais. Depuis l’invasion de l’Ukraine en 2022, le rôle des drones armés, parfois rudimentaires, a redéfini la grammaire de la guerre. Des quadricoptères bon marché sont utilisés pour la reconnaissance, le harcèlement, et même les attaques ciblées par grenade. L’intelligence n’est pas toujours embarquée, mais elle monte. La miniaturisation, l’autonomie de navigation, la capacité à opérer sans GPS : tout cela devient critique.

C’est dans ce contexte que la US Navy teste aujourd’hui les robots de Gecko Robotics, capables de grimper verticalement sur les coques de navires pour inspecter soudures et microfissures à l’aide d’aimants. Ces inspections, autrefois longues, coûteuses, voire dangereuses pour les humains, deviennent aujourd’hui automatisées.

Autre exemple : la société israélienne Xtend a signé un contrat de 8,8 millions de dollars avec le Pentagone pour ses drones kamikazes, capables de voler dans des bâtiments ou des environnements complexes sans signal GPS — une capacité devenue indispensable dans les combats urbains modernes.

Enfin, le programme Replicator, lancé récemment par le Département de la Défense américain, prévoit plus de 1 milliard de dollars d’investissement pour déployer des flottes de véhicules autonomes, aériens et marins, capables d’opérer en essaim dans un contexte de guerre potentielle dans le Pacifique, notamment autour de Taïwan. Là où les drones ont modifié la guerre terrestre, les États-Unis se préparent déjà à transformer la guerre navale.

Dans ces contextes où les contraintes sont extrêmes, les environnements non maîtrisés, les communications incertaines et le risque humain maximal, les robots ne sont pas une option. Ils sont une nécessité stratégique.

Parler aux robots, ce n’est plus de la science-fiction

D’après la MIT Technology Review, dans son laboratoire à Stanford, Jan Liphardt montre ce que peu de vidéos grand public réussissent à transmettre : l’étrangeté soudaine du moment où une machine nous comprend — ou du moins, nous donne cette impression. Il s’adresse à un robot quadrupède, de type Spot ou Mini Cheetah, et lui dit simplement : « Tu es un chien. » Le robot baisse la tête, s’approche, « renifle », puis simule un aboiement. Rien de nouveau sous le soleil ? Attends. Liphardt change un mot : « Tu es un chat. » Le robot recule, miaule, puis semble fuir un ennemi invisible. Le tout, sans modifier une seule ligne de code.

Ce n’est pas de la robotique classique. Ce n’est même plus de l’automatisation. C’est une forme d’interface souple entre le langage humain et l’action robotique, rendue possible par l’intégration de modèles de langage de grande taille comme GPT-4 ou ses dérivés spécialisés. Là où l’on codait hier des “si” et des “alors”, on travaille aujourd’hui sur des intentions, des rôles, des scénarios implicites. Le robot ne suit plus un plan rigide. Il réagit à une consigne floue — et comble les blancs.

Ce saut qualitatif est profond. Jusqu’ici, les interfaces homme-robot étaient mécaniques ou graphiques. Il fallait passer par une tablette, une télécommande, une API. Aujourd’hui, la voix devient une langue commune. Et cette langue est partagée avec un modèle qui a vu le monde, qui a lu des milliards de phrases, qui comprend les nuances : le sarcasme, l’ironie, les métaphores, le second degré.

Ce que Liphardt illustre dans son labo, c’est la naissance d’un robot conversationnel incarné. Une machine malléable, capable de changer de rôle sur simple ordre verbal. On lui dit qu’il est un chien, il agit comme tel. On lui dit qu’il est un chat, il bascule. On pourrait lui dire qu’il est un assistant médical, un éclaireur, un veilleur de nuit, un portier — et s’il a été exposé aux bons modèles, il tentera d’aligner son comportement avec cette étiquette.

C’est ici que la frontière entre la robotique et la cognition artificielle devient poreuse. L’intelligence ne réside plus uniquement dans les capteurs ou les servomoteurs, mais dans l’interprétation du rôle, dans le choix d’un comportement approprié à une consigne élastique. Ce type d’interaction ouvre un nouveau champ : celui de la projection mentale dans la machine. Nous ne lui donnons plus d’instructions. Nous lui donnons un personnage.

Et c’est précisément là qu’entre en jeu la notion d’IA agentique — ou agentic AI. Ce n’est pas seulement une évolution technologique, c’est un changement de paradigme dans notre rapport aux machines : on ne leur demande plus d’exécuter une tâche, on les charge d’un objectif, voire d’une intention, avec une certaine autonomie pour décider comment y parvenir.

Un agent, par définition, perçoit, raisonne, et agit. Il dispose d’un modèle du monde, d’un système de décision, et d’un champ d’action. Ce n’est plus un outil qui réagit à un stimulus, mais une entité logicielle — parfois incarnée physiquement — qui peut planifier, choisir ses étapes, apprendre en cours de route, et revenir nous voir si elle a besoin de clarification. Ce que fait Jan Liphardt avec son quadrupède est peut-être simple, presque anecdotique dans le geste. Mais sur le plan conceptuel, c’est une désignation d’agent : le robot se voit assigner une identité, un rôle, un mode de comportement — et le prend en charge de lui-même, sans supervision directe ni micro-commande.

Cette capacité à endosser un rôle, puis à naviguer dans un espace d’action non déterministe, constitue la base même d’une IA agentique. Le robot ne se contente pas de mimer : il structure une séquence d’actions cohérente avec une consigne abstraite. Il commence à se situer dans une narration implicite.

Et ce que cela annonce, c’est l’avènement de robots opérant dans des environnements ouverts, non balisés, sans script figé. Un robot auquel on dit « va sécuriser ce bâtiment » comprendra que cela implique de cartographier, observer, se positionner, identifier les issues, vérifier les accès. Il ne s’agira plus d’un enchaînement de tâches codées, mais d’un plan émergent, construit à partir d’un objectif et affiné en fonction du contexte.

C’est aussi pour cela que les modèles comme GPT-4, Gemini, Claude ou Mistral sont de plus en plus intégrés à des boucles sensori-motrices. Ils ne sont plus isolés dans une boîte de dialogue textuelle. Ils sont reliés à des caméras, des bras articulés, des roues, des pinces, des microphones. Ils deviennent le cortex préfrontal de machines incarnées, capables de raisonner à moyen terme, de prioriser, de demander de l’aide, voire de refuser une mission floue.

Décidément, la robotique n’est plus si timide, et elle a un bel avenir devant elle…

Laisser un commentaire