CES 2014, BMW dévoile sa voiture autonome sur piste !

Voiture autonome BWM présentée au CES 2014 à Las Vegas.
Voiture autonome BWM présentée au CES 2014 à Las Vegas.

Nous en parlions en octobre dernier, de nombreux constructeurs automobile se sont lancés dans l’aventure de la voiture autonome. Usant généralement des mêmes capteurs, ils souhaitent dans un premier temps assister les conducteurs, voire effectuer des manoeuvres sans risque comme le parcage automatique diffusé depuis une dizaine d’années. Werner Huber, en charge du projet chez BMW, estime que l’on pourra commencer à envisager l’intégration des voitures autonomes sur nos routes en 2020.

Les arguments repris à chaque présentation d’une voiture autonome sont la sécurité et une gestion optimale des capacités des véhicules. Voici la vidéo de démonstration que BMW a présenté au CES.

Il ne nous reste plus qu’à attendre une démonstration d’utilisation de cette voiture dans un cadre standard, avec du traffic, des automobilistes ayant appris des codes de la route différents en fonction de l’année d’obtention du permi de conduire, des clignotants négligés ou post-préventifs (activés après l’action qu’ils annoncent), des piétons parfois inattendus, des lignes au sol disparues ou en phase de disparaître avec l’usure, des motos qui passent entre les files de voitures, les stationnements en double files qui perturbent la circulation et obligent parfois à traverser une ligne blanche ou à forcer la voie pour passer, etc.

Source : BBC

Google et les robots, un amour qui grandit de jour en jour…

Le M1 de Meka est l'un des robots dont Google a fait l'aquisition ces dernières années.
Le M1 de Meka est l’un des robots dont Google a fait l’aquisition ces dernières années.

Quand on pensait à Google Inc. au début des années 2000, on pensait à l’influence de plus en plus massive de son moteur de recherche et à sa publicité ciblée. Il conquérait la toile internationale au point que les moins expérimentés l’appelaient Internet. Au grand dam de Microsoft à la fin des années 2000, Google était vu comme le nouveau grand concurrent d’Apple grâce à des Smartphones aux performances discutables mais aux tarifs très abordables. Appatant les développeurs et entreprises grâce à sa vision commerciale de l’Opensource, Google a permis à son système d’exploitation de s’autodéployer sur des supports dont il ne soupçonnait même pas l’existance. Android équipera entre autre les systèmes d’information et de divertissement des prochaines Audi selon le Wall Street Journal. Aujourd’hui, Google a l’image d’un porteur d’innovation immense dans de nombreux secteurs du domaine des nouvelles technologies et nous nous apercevons que finalement, la robotique n’est pas si nouvelle que ça pour le géant de Mountain View. Il a commencé à communiquer sur sa voiture autonome il y a un peu moins de trois ans, et aujourd’hui on découvre qu’Andy Rubin qui fût en charge du lancement d’Android, n’est autre qu’un ancien roboticien aujourd’hui responsable du rachat par sa société de huit grands acteurs de la robotique dans le monde. A croire que le nom d’Android n’avait pas été sélectionné au hasard.

Les créateurs de Google : Sergey Brin à gauche, Larry Page à droite.
Les créateurs de Google : Sergey Brin à gauche, Larry Page à droite.

Mais cette vision de Google est très raccourcie car on en oublie le plan commercial très controversé sur lequel Sergueï Brin et Larry Page ont batti cet empire dans leur chambre d’étudiants : “Organiser l’information à l’échelle mondiale et la rendre universellement accessible et utile“. Autrement dit, Google exploite toute information personnelle captée par les outils qu’il met à notre disposition. Des outils que l’on pense gratuits mais qui rapportent des fortunes car ces informations permettent le déploiement d’une quantité quasi-infinie de services générateurs de cash. Certains experts en sécurité qui s’opposent à ce modèle pourraient nous rappeler la définition de l’ingénierie sociale mise en ligne par notre gouvernement, une “Manipulation consistant à obtenir un bien ou une information, en exploitant la confiance, l’ignorance ou la crédulité de tierces personnes”. C’est à travers le parcours de Google et ses investissements successifs dans la robotique que nous allons tenter de comprendre le rôle caché des futurs robots de la marque.

Google et la vie privée

Avant d’entrer dans le détail de la robotique chez Google Inc., revenons sur les produits les plus connus mis à disposition par la compagnie ; un moteur de recherche incroyable qui nous offre des réponses au plus proche de nos attentes, les téléphones sous Android, la plateforme Youtube, Google Earth qui permet d’observer nos maisons vues du ciel comme si nous étions dans les locaux de la NSA, Maps et Waze qui nous guident sur les routes de la planète, Street View qui permet de visiter une ville et ses musées en trois dimensions grâce à des photos prises par les voitures de repérage Google. Voitures par ailleurs sanctionnées pour avoir enregistré bien plus que des images sur leurs passages. Les outils Google, ce sont les services Google+ qui tendent à concurrencer Facebook et qui s’intègrent de mieux en mieux à l’environnement de recherche, c’est Google Drive qui nous permet de travailler de façon collaborative sur l’équivalent des outils Office de Microsoft, c’est depuis peu Motorola qui est connu pour ses téléphones et composants électroniques performants et répendus, c’est Scholar qui met à disposition un ensemble de documents scientifiques en ligne, c’est Google Wallet qui nous permet de payer en ligne à la manière de Paypal grâce à un mot de passe associé à un compte Google, c’est évidemment Calendar qui se substitue à un agenda accessible partout et qui récupère notre emploi du temps personnel et parfois professionnel, c’est Picasa qui se confond maintenant avec Google+ pour la gestion des photos, c’est Chrome qui est “l’explorateur le plus performant du Web” et qui s’est parfaitement imposé face aux géants Internet Explorer et Firefox, c’est Talk qui est un service de messagerie instantanée qui se confronte à Facebook, Skype, Viber, et bien d’autres ; mais c’est aussi Sparrow, le service email client largement diffusé sur les plateformes Apple. On terminera cette liste avec la gamme Nexus de téléphones et tablettes signés Google mais fabriqués par des constructeurs comme Asus, Samsung et LG ; gamme qui risque de se confondre de plus en plus avec les matériels Motorola depuis son rachat par Google. Bref, il est de plus en plus difficile d’éviter les produits du mastodonte de Moutain View.

Les services Google
Les services en ligne de Google

Le point commun de tous ces produits, c’est qu’ils ont tous pour vocation de se rendre utiles à l’utilisateur pour récupérer ses informations personnelles sans qu’il n’en soit conscient. Il accepte de toutes les façons, la récupération de ces informations lors de la validation des conditions d’utilisation du service – contrat que l’utilisateur s’empresse de valider sans même avoir eu conscience de l’importance de son contenu.

Extrait des conditions d'utilisation et de l'explication de l'exploitation des données personnelles des utilisateurs pour l'utilisation de Google+.
Extrait des conditions d’utilisation et de l’explication de l’exploitation des données personnelles des utilisateurs pour l’utilisation de Google+.

C’est ainsi que Google nous offre les meilleurs services au monde en matière de publicité ciblée et en matière de recherche en ligne. Il est toujours surprenant de voir que le moteur connaît la suite des mots clefs de notre recherche avant même que le premier soit complètement écrit. L’application Now pourra d’ici peu prédire nos besoins avant même que nous n’y pensions grâce à cet ange gardien qui nous suit désormais partout, notre Smartphone. Doté d’une puce GPS, d’un moyen de paiement NFC, de données de conversation (SMS, e-mails, messagerie instantanée, annuaire de contacts, appels vocaux, etc.), de l’éventuelle liste de nos prochains achats et voyages, le Smartphone connaît une partie non négligeable de notre vie. Par conséquence, Google sait où nous travaillons, où nous habitons, quels magasins nous fréquentons, quel parcours de course à pieds nous préférons, etc. Cela fait peur, mais les gains pour l’utilisateur sont énormes ! Grâce à ce capteur, Google peut détecter les bouchons sur la route que nous sommes susceptibles d’emprunter, pour nous conseiller un meilleur itinétaire, ou pour nous notifier la nécessité de modifier l’heure du départ pour notre prochain rendez-vous. Rendez-vous renseigné dans l’agenda, ou détecté comme une habitude grâce à la régularité de nos déplacements. Il est aussi déjà possible de recevoir des notifications d’offres commerciales lorsque l’on approche de certains magasins ou concessionnaires.

Google Now devine votre besoin avant même que vous ayez conscience d'en avoir un.
Google Now devine votre besoin avant même que vous ayez conscience d’en avoir un.

Les services de Google récupèrent donc nos informations personnelles, appliquent des algorithmes statistiques de masse pour déterminer des profils et des besoins, puis nous renvoient des informations ciblées. Cela nous permet de voir la vie de façon plus simple et plus agréable. Le problème, c’est que nous ne sommes pas les seuls à utiliser nos informations personnelles. Google les revend à des enseignes commerciales et aux services de sécurité des différents Etats du monde. AdWords, qui a fortement contribué à la richesse de Google et qui consistait à afficher les publicités ciblées des hauts des pages de résultats, n’est plus le seul à exploiter nos données. Il faut être conscient qu’à partir du moment où un tel outil est capable de cibler un profil et une personnalité, il peut devenir un excellent outil de propagande : “Mieux je te connais, mieux je te manipule”.
Il est très difficile de savoir s’il est prudent de laisser une société privée telle que Google s’emparer de la masse d’information qui fait de nous ceux que nous sommes aujourd’hui, au risque d’être manipulés. Elle nous oriente même désormais vers nos articles de presse préférés via Google Actualités, alors que la presse a toujours été le premier outil de propagande. Non seulement Google récupère nos informations personnelles, mais la compagnie peut nous influencer par de nombreux moyens.
Cela rappelle le débat qui avait été lancé en 1967 par Paul Baran, l’un des pères de la méthode de transmission de données connue sous le nom de Data Switching, dans le journal The Public Interest (1965-2005) sous l’article titré “The Futur Computer Utility”. Dans son article, Paul Baran spéculait sur le fait qu’un jour, une petite poignée d’ordinateurs fourniraient et factureraient “le traitement de l’information” selon le même modèle économique que les fournisseurs d’électricité. Il s’inquiétait de la concentration du pouvoir des marchés dans les mains d’un petit nombre de sociétés et en appelait à la vigilance des Etats pour établir des règles “offrant une protection maximum pour la préservation des droits sur les informations personnelles”.

La CNIL défend nos libertés.
La CNIL défend nos libertés.

C’est seulement le vendredi 13 décembre 2013 qu’Isabelle Falque-Pierrotin, présidente de la Commission nationale de l’informatique et des libertés (Cnil), a réclamé sur France Inter l’ouverture d’“un grand débat “ sur la “société de surveillance”, trois jours après l’adoption d’un article controversé de la loi de programmation militaire ayant trait aux interceptions. “Il serait effectivement utile d’avoir aujourd’hui un grand débat sur cette société de surveillance au sens large qui se met en place à travers les actions aussi bien des acteurs publics que des acteurs privés”, a-t-elle déclaré. “C’est un débat (…) qui attirerait l’attention de nos concitoyens, qui ne sont peut-être pas suffisamment informés de ce qui se passe sur ces questions, et qui nous obligeraient collectivement à faire des choix ». La présidente de la Cnil a aussi ajouté qu’il était « temps de fixer un certain nombre de balises par rapport à l’utilisation de ces technologies ».

La difficulté du débat est d’autant plus grande que le public n’a pas forcément conscience de la valeur de ses informations personnelles, et que les Etats ont eux-même trouvé un intérêt dans leur rachat. L’Italie a par exemple développé un outil de détection de fraude basé sur les dépenses de chaque individu, le Redditometro. Lorsque l’on a compris ce potentiel et que l’on est une société bénéficiant par exemple d’informations bancaires, il devient vite intéressant de la revendre ou de se placer comme intermédiaire de la transaction. C’est ce créneau qu’à choisi Google pour son application Wallet.

En lisant la publication Changing Behaviours: On the Rise of the Psychological State, on comprend comment une information bien exploitée peut aider à réduire la fraude, mais aussi les accidents de la route, les problèmes de surpoids, inciter une attitude écologique, et pousser à la consommation des produits d’une marque plus influente financièrement qu’une autre. Les smartphones fournissaient déjà une quantité impressionnante de données, mais imaginez désormais qu’un outil qui puisse vous guider à tout moment se superpose à votre vue ; vous venez d’imaginer les Google Glass. Assimilées à la reconnaissance de formes et de contextes, ces lunettes nouvelle génération pourront enregistrer chacun de vos faits et gestes et se rendre si indispensables qu’une personne arrêtant leur utilisation pourra devenir suspecte lors d’une enquête. Elles seront capables de détecter un accident de voiture et de demander assistance avant même que celui-ci ne soit terminé, elles vous rappelleront l’identité de la personne à laquelle vous parlez mais dont vous avez oublié le prénom ; à quoi bon faire les présentations d’ailleurs ?
C’est petit à petit que l’on observe l’insertion physique de Google dans nos foyers et nos poches. Je suis d’ailleurs le premier à encourager le développement de ces technologies puisque j’ai un Nexus comme téléphone, je fais mes recherches sur Google parce que je trouve que DuckDuckGo est moins performant, j’aime que le dernier itinéraire recherché sur mon ordinateur se soit synchronisé avec mon téléphone pour accélérer le processus d’entrée d’adresse dans mon application GPS Waze (racheté par Google cette année), etc. Je pense personnellement que ces systèmes méritent d’exister, mais qu’ils devraient être mieux maîtrisés par nos Etats car ils ont une réelle influence sur les peuples. Le dernier événement politique provoqué par un tel système qui me vient à l’esprit est la rebélion qui s’est produite en Syrie grâce à Facebook et qui a servi à instaurer “une démocratie”… Mais dans le sens inverse, cet outil peut servir aux gouvernements pour se prémunir de ces rebellions… Et curieusement, il est très difficile aujourd’hui de retrouver des articles qui évoquent l’influence des sites communautaires ou des réseaux sociaux dans ces événements.

Au delà de la récolte d’information toujours plus abondante qu’il réussit à faire, le géant de la recherche semble penser à son avenir. On le sait tous, les grandes sociétés de ce monde ne sont pas éternelles car elles se font toujours rattrapées par l’innovation. On le perçoit à travers le déclin de Microsoft dans le monde des “Tablet PC”, le raté qu’a connu IBM dans le monde des ordinateurs personnels, la disparition de Sun à travers le filet d’Oracle, la déperdition de Nokia et Blackberry, etc. Il s’avère que se reposer sur un type de service particulier est dangereux et qu’une société à l’envergure de Google doit profiter de ses capacités d’investissement pour s’étendre sur des secteurs qui n’étaient à la base pas au coeur de son métier ; l’innovation permet de repousser la surprise de la concurrence. Et le géant du Web réussi à le faire de manière très intelligente en exploitant les capacités des technologies qu’il rachète pour poursuivre le développement de la quête qui l’a fait naître.

Si l’on suit la stratégie de Google, bien que les produits qu’il développe soient très utiles, ses robots ne seront qu’un capteur de plus glissé dans nos maisons et notre vie quotidienne. Qu’on soit pour ou contre, il faut en être conscient lorsqu’on parle des produits Google. De plus, à l’époque où les autorités peuvent utiliser notre webcam sans activer le témoin lumineux et où Facebook nous retrouve sur nos photos, Google est loin d’être le seul à vouloir mieux nous connaître.

Google et la robotique

Ce grand innovateur s’intéresse plus ou moins à la robotique depuis ses débuts ; du moins à l’aspect qui touche à l’intelligence artificielle. Comme on le sait, le moteur de recherche parcourt la toile grâce à de petits robots virtuels capables de comprendre le contexte et le contenu des sites Internet. Ces robots contribuent à l’indexation de l’information qui nous est proposée comme résutat lors d’une recherche. A notre tour et sans en être conscients, nous sommes sondés pendant une recherche car Google vérifie le temps passé sur la page que nous avons sélectionnée parmi les résultats. Fournir des informations à un utilisateur a une conséquence concrête dans le monde réel, d’autant plus que ces informations sont de plus en plus exploitées par d’autres machines. Capter les informations de l’environnement réel pour produire une action dans ce même environnement via des actionneurs, rappelle la définition d’un robot. A cette échelle, on pourrait imaginer une pieuvre aussi grande que le monde dont le centre serait la ferme de serveur de Google, les tentacules l’ensemble des connexions Internet et sans fil, et l’extrémité de celles-ci tous les appareils échangeant avec la ferme. Dans un avenir proche, lorsque des robots figureront parmi ces appareils, il sera difficile de dire s’ils font partie du robot gigantesque que forme cette pieuvre ou s’ils en sont eux-mêmes.
Pour faciliter le raisonnement, concentrons nous sur les robots physiquement reconnaissables que l’on placerait aux extrémités des tentacules de notre pieuvre. Plus un robot a d’information sur son environnement en relation avec une tâche donnée, plus le robot est performant pour cette tâche. Cela requérant bien-sûr la maîtrise de l’interprétation de cette information. C’est ce principe qu’ont développé Stuart Russell et Peter Norvig dans le livre Intelligence Artificielle ; Peter Norvig étant l’un des directeurs de la recherche de Google. Lorsque vous lisez ce livre, vous redécouvrez la robotique ! L’influence de Google commence finalement sur ce qui a fait sa richesse : Les algorithmes de gestion de données, les précurseurs de ce que l’on nomme aujourd’hui le Big Data.

Les acteurs de la société n’hésitent pas à partager leurs connaissances pour former les futurs experts et contributeurs de ces marchés encore émergeants. Sebastian Thrun, fondateur de Google X Lab, a créé le MOOC – cours universitaires interactifs en ligne – Udacity.com et revient à son tour sur les principes d’intelligence artificielle qui ont permis la création de la voiture autonome Google Car. A un autre niveau, Google à développé l’ADK (Accessory Development Kit) en 2010, un outil permettant d’interfacer des accessoires avec un téléphone sous Android ; outil très exploité par la communauté Arduino. De là, on a vu apparaître un robot solveur de Rubixcubes dont le coeur d’intelligence repose sur un smartphone, un robot dragon dont le visage et les expressions associées sont dessinés sur un autre smartphone, et des robots de combat où le smartphone joue cette fois-ci un rôle semblable à celui d’un chevalier sur sa monture.

Beaucoup plus ambitieux en terme de robotique, Google a sponsorisé le Google Lunar X Prize qui arrivera à terme en 2015. Ce concours organisé par l’association à but non lucratif X Prize Foundation créée en 1995 et qui a donné naissance au SpaceShipOne, a pour objectif d’encourager la recherche et le développement dans le domaine des technologies qui pourraient améliorer les conditions de vie de l’humanité. Comme le soulignait Frédéric Boisdron dans Planète Robot numéro 8 sorti en mars 2011, “il y a quinze ans encore, seule une nation au budget colossal pouvait prétendre envoyer un objet sur la lune. Aujourd’hui, des sociétés privées tentent cette aventure”. Ainsi, trente millons de dollars sont mis en jeu pour récompenser la première société privée qui saura envoyer et poser un robot sur la Lune. Il devra pouvoir se déplacer et parcourir une distance de cinq cents mètres sur le sol sélénite, et partager des données capteurs avec la Terre.

En 2010, on entendait par la presse que Google travaillait sur des quadricoptères anciennement utilisés par la police anglaise et produits par la firme allemande Microdrones GmbH. On s’imaginait à l’époque que le géant du Web allait les exploiter pour améliorer les images fournies par Google Street View.
Depuis, nous avons vu la naissance de la Google Car dans laquelle s’exprime toute la puissance de Google en robotique ! Comme nous le décrivions dans notre dossier sur l’introduction sociale des robots, elle est l’un des projets les plus aboutis et les plus communicants du genre – en terme de presse écrite.
Elle est l’actionneur qu’il manquait à notre système d’intelligence collective, la pieuvre, pour recevoir le label “Robot”. Ainsi, la géo localisation des smartphones et l’analyse des terrains faite par Street View permettent de suivre le déplacement des véhicules et des humains dans le monde. De la même manière que le système Traffic Live de Tomtom, cela pourra permettre à Google Maps d’orienter au mieux la voiture via le système GPS associé, en évitant les zones de forte affluence – le jour où seules les voitures autonomes gouverneront sur nos routes, cela deviendrait un système de régulation du trafic.

Dans un virage où un conducteur humain ne verrait pas nettement le piéton, la Google Car pourrait ajouter à son système de reconnaissance visuelle, une analyse du déplacement des téléphones dans la zone visitée. Ainsi, avant même que le piéton ne décide de traverser la route, la voiture verrait venir le danger ; le visuel ne servant que de confirmation. Finalement, la robotique de demain serait-elle basée sur une conscience interconnectée avec l’ensemble des appareils communs ? Votre smartphone devient un percept (un senseur ou un capteur) utilisé par de nombreux robots ; c’est en cela qu’il prend sa place dans le domaine de la robotique.

Le rachat par Google de 8 sociétés spécialisées en robotique

Très discrètement, le géant américain a passé les six derniers mois de l’année 2013 a racheter pas moins de huit sociétés de robotique. Et c’est Andy Rubin, l’homme qui développa Android chez Google, qui est à la tête de la manoeuvre. Andy Rubin, 50 ans, a commencé sa carrière en robotique pour assouvir sa passion des machines intelligentes. Il a poursuivi sa carrière chez Apple (le monde est vraiment petit) où il a travaillé comme ingénieur de production dans les années 1990, puis chez Carl Zeiss comme ingénieur roboticien. A croire que l’histoire était déjà écrite…

Andy Rubin est l'ingénieur à la tête du secteur robotique de chez Google, après avoir lancé Android.
Andy Rubin est l’ingénieur à la tête du secteur robotique de chez Google, après avoir lancé Android.

Dans un premier temps, la stratégie serait de développer des machines accroissant les performances des usines de production ou dans lesquelles la manutention est encore très présente. Cette stratégie a peut-être émergée du rachat de Motorola par Google et son choix de développer ses propres microprocesseurs ARM. L’avantage de cette technologie étant sa meilleure gestion des interactions entre le matériel et les logiciels, et une consommation d’énergie réduite. On pense aussi à la production des X phones et à la gamme de téléphones modulaires entièrement personnalisables – comme une tour de PC – que motorola développe dans ses laboratoires. Mais le panel des sociétés rachetées par Google semble aller beaucoup plus loin que la simple production en usine.

Boston Dynamics

Boston Dynamics, spin-off du MIT lancée par Marc Raibert en 1992, est la dernière accession faite par Google en 2013. On ne peut pas parler d’elle sans penser à BigDog, ce gros chien aux câblages proéminents et au bruit intensifié d’un jouet à remontée mécanique financé par la DARPA (Defense Advanced Research Projects Agency) et qui se faisait maltraiter sur Youtube. La mission de ce robot était l’accompagnement d’hommes en mission, de façon à porter toutes leurs denrées lourdes. Depuis la publication de ses vidéos, il a changé plusieurs fois de nom et de forme pour devenir AlphaDog puis LS3 (Legged Squad Support Systems), une bête de 180kg avec assez de carburant pour mener des missions de 30km sur une journée. Inutile de chercher une quelconque manette de contrôle, il suit le meneur de l’équipe grâce entre autre à la reconnaissance de visage.

Le second produit qui a fait la renommée de la société est son simulateur vidéo performant nommé DI-Guy qui a intéressé tout particulièrement le NAWCTSD, une division de l’armée américaine chargée des simulations des missions navales et aériennes. Cette section de Boston Dynamics a été transférée à VT-MÄK, un vendeur de simulateurs basé à Cambridge, dans le Massachusetts.

Plus robotique, on pourra citer Petman (dérivé de Atlas), un robot anthropomorphe (singe) conçu pour tester les vêtements de protection chimique. Un mouvement naturel et agile est essentiel pour simuler le comportement des soldats en conditions réelles.

On suivait également en 2012 les évolutions de WildCat ou Cheetah (Guépard), qui était capable d’atteindre les 30km/h à la course sans pour autant satisfaire le Dr. Alfred Rizzi, directeur technique du projet Cheetah, qui visait les 80km/h. L’animal atteind désormais les 45km/h.

Le 4 octobre 2013, nous nous étonnions de la brusque multiplication des vidéos tape à l’oeil que la société diffusait sur la toile. Il y avait bien anguille sous roche puisque le 13 décembre dernier, nous apprenions que le géant du Web Google Inc. venait d’en faire l’acquisition.

Schaft

C’est dans son laboratoire de l’université japonaise de Jouhou System Kougaku (JSK) que le Professeur Masayuki Inaba a pu suivre la montée en puissance du projet de robot humanoïde de Junichi Urata et ses collègues. Projet qui a débouché sur la création d’une société en 2012, et sur son rachat par Google le 21 décembre 2013. Désormais, Schaft développe, fabrique et vend des robots humanoïdes et leurs technologies.

Les robots de type Asimo régulièrement présentés par les laboratoires et sociétés privées sont confrontés à une forte limitation de la puissance de leurs moteurs électriques, les limitant de fait en charge utile. Schaft s’est créée autour d’une solution à ce problème : une jambe robotisée à fort couple et grande rapidité de mouvement basée sur un contrôleur de moteur modifié. Pour rappel, un contrôler de moteur (Motor Driver) est un circuit électronique conçu pour guider une charge électromagnétique, comme les moteurs avec ou sans balais (brushed ou brushless) ou pas à pas. Ils permettent de fournir l’énergie nécessaire à leur alimentation sans passer par le circuit électronique de commande qui risquerait de ne pas supporter la charge.
La particularité du contrôleur de moteur de Schaft est qu’il exploite un condensateur de 13,5 Farad. L’avantage d’un condensateur est qu’il peut fournir beaucoup de courant très rapidement et efficacement, une chose qu’une batterie aurait du mal à faire. Les chercheurs ont modifié un bipède HRP3L existant, développé par Kawada Industries, pour créer leur propre robot qu’ils ont appelé HRP3L-JSK.

Le HRP3L-JSK de Schaft.
Le HRP3L-JSK de Schaft.

Ses moteurs réussissent désormais à atteindre une vitesse de 1000 degrés par seconde avec un couple de 350Nm, ce qui permet au robot de 53kg de réagir parfaitement à des perturbations comme des coups de pieds ou d’autres perturbations importantes.

Industrial Perception (IPI)

Industrial Perception (IPI) est le résultat de la constatation faite par un groupe d’ingénieurs développeurs de Willow Garage – société privée spécialisée dans la recherche en robotique – qu’il est pour le moment plus facile d’engager les robots chez les industriels que de leur trouver une famille. Cette constatation a récemment été suivie par le journaliste Steve Kroft sur CBS News, qui souligne que les robots apprennent de plus à plus à prendre des décisions par eux-mêmes, et ils quittent de plus en plus les laboratoires pour entrer dans les usines, les entrepôts, les hôpitaux et les bureaux. Les automates sont sur le point de se transformer en robots intelligents s’adressant à bien plus que le secteur automobile qui ne peut désormais plus s’en passer.

IPI a été mise au monde à Palo Alto en mars 2012 par Kurt Konolige, Gary Bradski, Ethan Rublee, Troy Straszheim et Stefan Hinterstoisser. L’objectif de la société est de développer des algorithmes offrant aux robots une meilleure perception des objets et des formes en trois dimensions, et leur permettant ainsi de manipuler les éléments d’une pile d’objets en évitant toute collision inopinée. La société s’est entre autre penchée sur un bras destiné à aider au chargement de camions.

Deux des fondateurs de IPI se sont déjà démarqué dans le domaine de la robotique ; Konolige a travaillé au SRI International, une filière de AAAI, et avait fondé quelques années plus tôt Videre Design, un fabricant de matériels et logiciels stereo, puis co-fondé ActivMedia Robotics – plus tard devenu MobileRobots puis racheté en 2010 par Adept Technology. Bradski a quant-à-lui fondé la plus populaire des bibliothèques opensource de traitement d’image, Open Source Computer Vision Libray (OpenCV). Il a à son actif 69 publications et 32 brevets dans ce domaine.

Meka
Fondée en 2006 par Aaron Edsinger et Jeff Weber à San Francisco, Meka Robotics est une spin-off du laboratoire en sciences informatiques et intelligence artificielle du MIT. Remarquée pour ses travaux sur les robots humanoïdes lors de la conférence IROS 2011 où elle exposait son robot S2 et expliquait l’effet de la vallée dérangeante (Uncanny Valley effect) rencontré avec les robots humanoïdes, elle développe des matériels et logiciels pour la recherche ciblant la robotique qui peuplera notre environnement quotidien. L’expertise de la firm porte sur l’accomodation des humains aux robots, le contrôle de la force des actuateurs, le design des opérateurs, le logiciel temps réel, et l’intégration de systèmes mécatroniques.

Parmi ses créations majeures, son robot humanoïde S2, qui a la particularité de produire des mouvements très fluides, proches de ceux qu’un humain pourrait produire. Ses concepteurs ont durement travaillé pour éviter l’effet de la vallée dérangeante (Uncanny Valley effect). Cet effet bien connu des passionnés de robots humanoïdes répond au principe selon lequel plus un robot va ressembler à un être humain, plus ses imperfections vont choquer et paraître monstrueuses.

La figure ci-dessous montre le niveau de bien-être que l’on ressent face au robot (familiarité) en fonction de son niveau de ressemblance à un être humain (sur les abscisses). La vallée dérangeante correspond au niveau de ressemblance juste avant la copie parfaite d’un être humain. C’est là que l’on sera le plus choqué par les défauts de ressemblance.

Effet de la valée dérangeante.
Effet de la valée dérangeante.

Les occidentaux vont avoir tendance à être choqués de la ressemblance entre un robot et un être humain. Les asiatiques auront quant-à eux tendance à encourager cette ressemblance.

Le second bébé de Meka Robotics est Hume, un humanoïde conçu avec l’université d’Austin au Texas, pour permettre aux chercheurs d’étudier le déplacement idéal d’un bipède sur un terrain plat endommagé.
Pour cela, les scientifiques tentent de reproduire la manière dont l’humain voit son environnement pendant qu’il se déplace : Lorsque nous courons, nous ne fixons pas le sol constamment et nous nous adaptons rapidement au terrain que nous parcourons. La chute doit quant-à elle être contrôlée lorsqu’elle s’annonce inévitable.
Pour accomplir son déplacement, Hume utilise ses jambes animées par une série d’actionneurs élastiques.

Le troisième et dernier robot de Meka Robotics que nous présenterons est M1, un manipulateur mobile équipé de deux bras, une tête équipée d’une Microsoft Kinect, et une base roulante omnidirectionnelle. Le robot exploite un logiciel temps réel basé sur ROS.

Redwood Robotics

Concurrent direct de Rethink Robotics (Heartland Robotics), Redwood Robotics est une joint venture entre Meka Robotics, Willow Garage et SRI International établie en 2012 et spécialisée dans les bras robotisés simples à programmer, bons marché, et sans danger pour leur entourage.

L’annonce qui avait été faite en 2012 lors du forum « The Future of Robotics in Silicon Valley and Beyond » par Aaron Edsinger était très offensive. En effet, Redwood se chargeait de construire la future génération de bras robotisés pour robots et de les diffuser comme Apple avait diffusé la nouvelle génération d’ordinateurs (Smartphones et Tablettes). L’objectif étant d’introduire un nouveau matériel avec des interfaces révolutionnaires, fournissant des solutions clef en main pour les intégrateurs, développeurs et entreprises visant le grand public.

La société est présentée à la minute 36 de la vidéo suivante :

Bot & Dolly

Bot & Dolly est un studio d’ingénierie et de design créé en 2010 à San Francisco, spécialisé dans l’automatisation, la robotique et la réalisation cinématographique. Grâce à ses propres couches logicielle et matérielle, il exploite les capacités de robots industriels six axes autrefois utilisés pour souder et peindre les voitures. Ces robots sont ainsi libérés du sol des usines et exploités sur les plateaux de tournage pour manipuler lampes, capteurs, caméras et autres objets avec les mouvements les plus précis, les plus coordonnés et les plus complexes qui puissent être exigés dans le cinéma ; le tout avec une possibilité de répétition des gestes à l’infini. Cela permet de créer la magie d’un monde où le virtuel et le réel se confondent à travers une synchronisation et une prédictabilité sans précédent sur les plateaux de tournage.

Bot & Dolly a par exemple exploité le système IRIS pour le film Gravity d’Alfonso Cuarón, Gravity. Une interface informatique personnalisée traduisait les données de séquences d’animations exécutées dans le logiciel Maya, en mouvements physiques de cameras sur le plateau de tournage. Le but étant de capturer le visage des acteurs dans les bonnes dimensions et positions. Pour certaines prises, les 1,4 tonnes d’IRIS pouvaient tourner à une vitesse de 20 kilomètres par heure.

Autofuss

 Le Directeur Jeff Linnell au centre de la photo, accompagné de ses trois Fanuc s430iL.
Le Directeur Jeff Linnell au centre de la photo, accompagné de ses trois Fanuc s430iL.

Egalement située à San Francisco, Autofuss est sortie de la tête de Jeff Linnell pour devenir réalité en 2009. Présentée aujourd’hui comme la soeur de Bot & Dolly, Autofuss s’est construite autour de trois bras industriels six axes, des Fanuc s430iL. Une fois reprogrammés par la société, ils ont servi au tournage de publicités télévisées.

La première publicité réalisée par ces robot fût cette de Louis Vuiton faisant apparaître Buzz Aldrin. Depuis, les clients se sont largement diversifiés et on y reconnaitra Apple et Nike pour ne citer qu’eux.

Holomni

Holomni est sans doute la société la plus discrète de la liste, et toute information constructive à son sujet a été écartée de son site Internet. Elle se présente comme une compagnie développant des roues high tech directement contrôlables et tournant à 360 degrés sur l’axe vertical comme sur l’axe horizontal. En creusant un peu, on découvre que le B1 de Meka exploite les roues d’Holomni.

Ces sociétés sont capables de créer des technologies pour le développement d’un robot à grande dextérité d’après Rubin. Google, comme bien d’autres, semble parier sur le lien inextricable entre le matériel informatique et les biens physiques. Aujourd’hui, l’”Internet des objets” explose ; nous constatons une croissance exponentielle du nombre des objets connectés tels que les Smartphones, les lunettes, les montres, les régulateurs de consommation électrique, les systèmes de guidage et bien d’autres. Une immensité de services associés va bientôt apparaître et nous n’en appercevons aujourd’hui que la face visible de l’iceberg. La robotique s’assoie au millieu de ces tendances, jouant un rôle critique dans la jointure entre les mondes physique et numérique. Peut-être Google suit-il l’exemple d’Apple qui a misé 10,5 millions de dollars pour faire évoluer ses moyens de production. Ce qui est sûr, c’est que deux principaux marchés resortent de ces rachats : Le marketing avec Bot & Dolly et Autofuss, et la robotique d’assistance pour les autres.
Les technologies de haut débit sans fil, de localisation et d’interprétation contextuelle, les nouvelles interfaces homme-machine telles que les écrans tactiles et la reconnaissance vocale ont déjà permis l’exploitation d’une quantité d’information jamais imaginée auparavant. Quelles informations les robots vont-ils fournir à l’avenir ? Contribueront-ils un peu plus à l’omniscience de Google et des autorités ? Seront-ils exploités sur le même modèle d’abonnement imposé par l’obsolescence programmée connue sur les smartphones ou l’écologie favorisera-t-elle l’obsolescence logicielle avant tout ? Quel concurrent pourrait s’imposer face à Google pour coordonner une information mêlant le logiciel, le matériel et les utilisateurs humains ?
Les acteurs que sont Honda avec Asimo, et Aldebaran Robotics avec Roméo n’ont-ils pas finalement déjà un train de retard dans le développement de l’intelligence artificielle ? Avec une conscience basée sur les technologies qui nous suivent chaque jour, le géant du Web dominera bientôt largement plus que du logiciel… Pendant que certains parlent de Smarthome en pensant révolutionner la domotique, d’autres planchent sur le SmartWorld !
Pour ou contre le SmartWorld ?

Sources : Wikipédia
01net
MIT Technology Review, vol. 116, N°6, Novembre/Décembre 2013.
Android
The Register
New York Times
01
BBC
TI
IEEE Spectrum
Derivative
Findthecompany.com
Popular Mechanics
Wired
Robotics Business News
ROS

Amazon et UPS nous livreront bientôt par drones…

Illustration d'un éventuel drone livreur de colis et courriers UPS/Amazon.
Illustration d’un éventuel drone livreur de colis et courriers UPS/Amazon.

Les drones aériens font partie des robots les plus mis en avant ces dernières années. A croire que le ciel fait toujours autant rêver… Après le projet humanitaire Matternet monté par un groupe d’étudiants de l’université Singularity University en 2011, c’est au tour des grands de ce monde de lever l’index !

C’est dans l’émission 60 Minutes que le PDG d’Amazon, Jeff Bezos, s’est exprimé en surprenant son public dimanche dernier. Il a annoncé que sa société travaillait sur un projet, Prime Air, de livraison de colis à domiciles par des drones aériens de types octocoptères. Peut-être une façon d’attirer l’attention du consommateur exactement la veille du premier lundi de décembre le plus rémunérateur pour les sites de vente en ligne. Ce lundi est même surnommé le Cyber Monday !

« Je sais que celà ressemble à de la science fiction. Ce n’en est pas. » Déclare Bezos à Charlie Rose pendant l’émission de dimanche soir, soutenant son propos à l’aide d’une vidéo d’un petit hélicoptère de la taille d’un jouet chargé d’un petit colis.

Il ajoute que ces véhicules pourraient livrer d’ici quelques années, les millions de clients Amazon dans la limite de colis de 2.3kg en moins de 30 minutes dans un rayon de 16km du centre de distribution. Prudent, il précise que la technologie a quand même besoin de temps pour se développer et que l’administration fédérale américaine de l’aviation ne prévoit pas d’étudier le sujet avant au moins 2015.

Lundi, c’est au tour de la société UPS de profiter de la vague pour annoncer qu’elle finance l’étude des drones depuis plusieurs années dans son cadre de distribution des colis. Elle tente de mettre en avant son pôle R&D grâce auquel elle a pu mettre rapidement à disposition des services d’impression 3D aux Etats Unis.

SECURITE, VIE PRIVEE

Pendant que certains spéculent, d’autres s’inquiètent. L’idée des colis livrés par drones est complètement nouvelle. Le site The Verge a reporté le mois dernier un projet similaire annoncé par la société australienne de vente de livres en ligne Zookal.

Lambert Dopping-Hepenstal, de l’organisme IET et Directeur des Systèmes et de la stratégie à BAE Systems, explique que beaucoup de défis sont à surmonter avant de réussir à imposer ce type de technologie.

« En tête de liste, il faudra démontrer que les drones sont une technologie mature qui peut opérer dans notre espace aérien en toute sécurité. » Dit-il.

Les autorités américaines ont reconnues que les drones pouvaient avoir un nombre considérable d’applications commerciales, mais elles ne se sont pas empressées de publier de règle générique. La FAA autorise actuellement l’utilisation des drones (UAS) au cas par cas.

Mark Udall, un sénateur démocrate du Colorado, annonce quant-à lui que “les habitants du Colorado accepteront ces technologies uniquement s’il est certain que leurs vies privées sont protégées, c’est-à-dire qu’ils ne seront pas victimes de surveillance ou d’atteinte à la vie privée par l’observation aérienne ».

En ce qui nous concernes, je pense qu’il faut tout de même un peu redescendre sur terre et se rendre compte qu’un octocopter a de grosses contraintes.

Tout d’abord, c’est un outil dangereux. Le grand public ne se rend pas forcément compte que les hélices peuvent couper comme une lame de rasoir. Mal réceptionné, il peut tuer ou endommager une personne pendant qu’il se pose si elle se positionne trop proche de lui. Il se peut aussi tout simplement que le drone s’écrase à un endroit inapproprié et déclenche un incendie, ou qu’il tombe sur un passant qui n’avait rien demandé à personne. Les conditions climatiques peuvent attirer ce genre d’incident.

Coûteux, il peut ouvrir les portes à un tout nouveau marché qui consisterait à capturer les drones et les colis pendant leurs trajets, pour les revendre. Si l’on accentue cette idée, on peut imaginer qu’une fois capturés, les drones soient utilisés pour transmettre des matériels illégaux sous couvert du logo des sociétés marchandes.

Les octocopters sont connus pour être bruyants et peu autonomes. Ils ne pourraient non seulement pas servir un nombre important de clients à la suite, mais ils nécessiteraient un grand nombre de cycles de recharge quotidiens.

Bref, il y a encore du chemin à parcourir avant de se faire livrer par drone, mais l’idée est intéressante et mérite d’être approfondie !

Sources : Engadget
Engadget
Reuters

SEAL Pack, un robot très adaptable !

3 configurations clef en main possibles pour le SEAL Pack.
3 configurations clef en main possibles pour le SEAL Pack.

Les robots USAR (Urban Search And Rescue), ces robots qui doivent s’adapter à tout type de situation pour aller sauver des vies en milieux hostiles, se diversifient de plus en plus dans les laboratoires. Les soldats en sont friands pour plein de raisons, mais les atouts majeurs qui font la différence entre deux robots restent le poids, la facilité de réparation (scotch, agrafe, etc.), et la capacité d’adaptation au terrain.

Le SEAL Pack est intéressant en ce sens puisqu’il s’agit d’un robot « puzzle » low cost que l’on peut décliner aisément sous trois formes : Aérienne, terrestre et marine. Terrestre, il peut parcourir 5km avec 500g de charge utile ; marine, il peut voguer sur 0,5km pendant 140 minutes ; aérienne, il s’élève pendant moins de 6 minutes pour traverser un terrain sur une distance très courte…

Désasemblé, il représente un bloc de 33x20x14cm3 pesant à peine 1kg. Il est développé par Modular Robotics Lab (ModLab) déjà connu pour ses robots modulaires. ModLab est aussi une filiale de GRASP Lab et du département d’ingénierie mécanique et mécanique appliquée de l’université de Pennsylvanie.

Les robots modulaires sont une bonne idée également pour donner l’opportunité à des non initiés de concevoir des robots à partir de modules déjà testés et approuvés par des professionnels.

Source : SEAL_Pack

inForm, un écran 4D reproduit les objets filmés en temps réel ?

inform table morphing ecran 4D reproduit objets gestes temps reel

Le MIT Tangible Media Group vient de partager les résultats d’une expérimentation mettant en scène une interface dite 2.5D. Cette table de morphing composée de 900 tiges (bientôt tactiles) a été conçue sur le principe de l’affordance, mot savant pour nommer la capacité d’un objet à suggérer sa propre utilisation ; c’est le résultat d’une étude ergonomique. Cet écran 2.5D reproduit assez grossièrement les formes de l’objet filmé à l’aide d’une caméra 3D.

Le système exploite 30×30 pattes de polystyrène blanc motorisées sur une surface de 381x381 mm2. Chacune peut s’élever à 10cm de la surface. Des tiges sont utilisées pour faire le lien entre chaque patte et les actionneurs installés sous la table (Les actionneurs étaient trop gros pour être directement reliés aux pattes). Ces tiges sont formées d’un fil de nylon inséré dans un tube de plastique.
Un vidéo projecteur diffuse des images sur la surface plane de chacun des éléments.

Exemples d'utilisation d'inForm.
Exemples d’utilisation d’inForm.

L’actuel système utilise une caméra Kinect qui filme du plafond vers le bas pour poursuivre les mains de l’utilisateur et synchroniser l’image projetée aux mouvements. Une deuxième Kinect placée sur une table indépendante permet de capter les gestes d’un autres utilisateur pour les reproduire sur la table. On pourrait imaginer que ce procédé soit exploité lors de vidéo conférences. (Cela rappelle un peu l’idée des avatars).

Structure de l'inForm.
Structure de l’inForm.

Le Tangible Media Group mené par le Professeur Hiroshi Ishii, explore les concepts de représentation tangible des données. Il réalise de nombreuses expériences intéressantes de ce type, n’hésitez pas à jeter un oeil à notre source !

Source : Tangible MIT
inForm

L'Angleterre donne 77 millions d'euros pour développer des taxis autonomes

Cette voiture étrange sera un taxi autonome anglais.
Cette voiture étrange sera un taxi autonome anglais.

Depuis quelques temps, je diminue mes publications pour m’instruire sur les fondements de la robotique d’aujourd’hui, pour mieux comprendre ce qu’elle nous apporte et ce qu’elle nous prend. Je partagerai mes conclusions avec vous d’ici quelques mois. Il y a vraiment beaucoup à dire, et j’ai comme l’impression qu’il y a de quoi faire naître un certain optimiste au milieu de toutes ces crises dont on nous parle si souvent ! Il est possible que l’augmentation de nos impôts aille dans le bon sens si des subventions sont données aux bons secteurs d’innovation… Cela se confirmera d’ici quelques années…

Tout ce que je peux vous dire pour l’instant, c’est qu’en tant que français, nous avons intérêt à gagner cette bataille des inventions robotiques. Malgré toutes les critiques, notre ministre du redressement productif a un rôle essentiel sur ces sujets. Il l’a d’ailleurs tellement ressenti qu’il a recruté l’un des représentants les plus influents de la robotique en France, j’ai nommé Bruno Bonnell.

Pour faire court, imaginez-vous que l’on soit arrivés à une époque où l’innovation est la clef de la conservation des richesses et de l’emploi, à condition de prendre en compte le paramètre écologique. Je vous accorde qu’affirmer cela de but en blanc sans justification est un peu brutal, c’est pourquoi je vous demande de bien vouloir patienter encore quelques mois pour aller plus loin dans le débat.

La voiture autonome est l’une des clefs de l’innovation en robotique. Elle met en concurrence l’ensemble des constructeurs automobiles, ainsi que certains géants comme Google, qui aimeraient dominer la planète. C’est, à mon sens, sur ce constat que l’Angleterre a décidé d’investir 65 millions de livres dans le développement d’un réseau de taxis autonomes dans la ville de Milton Keynes.

Ces taxis spéciaux, les Pods, pourraient être tout électrique et se recharger par induction grâce à des balises placées dans le sol. Ils ne pourront transporter que deux passagers à la fois, et quelques sacs de course, voire une poussette pour enfant. Comme le prévoient les lois actuelles, les utilisateurs de ces voitures seront tenus responsables en cas d’accident.

Les Pods seront testés pendant deux années à partir de 2015, puis mis à dispositions du grand public sur des voies aménagées entre la gare, le centre commercial et les centres d’affaires. Pour les utiliser, il faudra s’équiper d’une application pour Smartphone qui gèrera la rémunération du chauffeur aux os de fer dont la vitesse de pointe s’élèvera à 20km/h. (C’est toujours plus rapide que de courir)

A très vite !

Source : Daily Mail

General Motors communique sur sa voiture autonome ?

CadillacSuperCruise_autonome_voiture

Bien que Google ait beaucoup joué sur sa communication, de nombreux constructeurs automobiles se sont lancés dans la conception de voitures autonomes depuis les années 1980.
On pourra citer Mercedes-Benz, General Motors, Google, Continental Automotive Systems, Autoliv Inc., Bosch, Nissan, Toyota (Google Car), Audi, Oxford University, et mon petit doigt me dit que Renault n’est pas non plus à négliger sur le sujet (Quasper).

En France, notre culture du secret nous empêche de communiquer (à l’opposé des US), mais on trouve parfois des choses intéressantes sur la toile… Voici une vidéo de 2011 à mettre de côté.

Pour en revenir à General Motors, la société à lancé une campagne de communication sur le sujet cette semaine avec la diffusion de tests vidéo. Cependant, comme vous le constaterez, nous circulons le long d’une route sans traffic et avec des traits bien dessinés au sol.

Source : CNBC

WildCat, un robot canin qui cours à 26km/h !

WildCat en pleine course à 26km/h.
WildCat en pleine course à 26km/h.

Cette semaine, Boston Dynamics a décidé de faire ami-ami avec la presse ! En effet, après la diffusion des vidéos d’Atlas (anciennement Petman) et d’AlphaDog (anciennement BigDog), voici WildCat (anciennement Cheetah) !

Ce chat sauvage est capable de sautiller, de galoper et de courir à une allure de 26km/h.

Source : Engadget

Boston Dynamics entraine son AlphaDog et son Atlas sur des terrains accidentés

Atlas marchant sur un sol caillouteux.
Atlas marchant sur un sol caillouteux.

Boston Dynamics, soutenu par la DARPA, fait beaucoup parler de ses robots depuis que BigDog a fait son apparition sur les vidéos de la toile. Aujourd’hui, AlphaDog (LS3) et Atlas (anciennement Petman) continuent leurs évolutions, et les résultats sont juste impressionnants !

Rappelons qu’Atlas est le robot présenté par Boston Dynamics pour la compétition organisée par la DARPA. Il peut désormais négocier avec des terrains rocailleux avec une certaine aisance, comme le montre les vidéos.

Source : Engadget

L'auto-assemblage, une façon différente de concevoir

Objet imprimé en 4D avec son animation.
Objet imprimé en 4D avec son animation.

L’auto-assemblage est un principe selon lequel un objet va être capable de changer de forme par lui-même pour atteindre celle prévue. Il s’agit de faire interagir ses composantes entre elles en fonction d’un stimuli tel que l’humidification de sa structure.

Il y a quelques mois, l’architecte Skylar Tibbits, également designer et spécialiste des sciences liées à l’informatique, a annoncé l’apparition d’un nouveau concept d’impression à quatre dimensions (4D printing). Ce nouveau concept utilise les principes de l’auto-assemblage dans le sens où l’objet imprimé va s’animer pour atteindre une forme prédéterminée.

L’avenir potentiel de cette technologie est son introduction dans les technologies automobiles, aéronautiques et de défense. Imaginez par exemple que votre voiture soit capable de s’adapter d’elle-même à un milieu humide pour s’éviter la corrosion.

L’office National de la Recherche de l’Armée américaine a quant-a-lui déjà fait fonctionner son imagination puisqu’il pense utiliser cette technologie pour créer des tenues de camouflage et de protection des soldats. Les tenues pourraient par exemple réagir à un gaz en particulier en cas d’attaque chimique. $855 000 (632 000€) ont déjà été débloqués pour financer l’étude des matériaux 4D, et ce sont les universités de Pittsburgh, Harvard et Illinois qui ont été sélectionnées pour travailler sur le sujet.

La dilatation et la torsion des matériaux est déjà prise en compte depuis longtemps en ingénierie, mais le point de vue présenté ici est très intéressant. On attend au pied levé une démonstration des applications ! 🙂

Source : 3ders