Les fans d’intelligence artificielle risquent de plus en plus se diversifier avec l’apparition des robots ménagers !
Revenons sur PACO PLUS, un projet lancé en 2006 et qui a fait des émules en 2010 lors de démonstrations plutôt bluffantes.
Souvenez-vous de ces matinées où la seule chose dont vous rêvez est de rester allongé, le temps que quelqu’un vous prépare à manger avant de partir au travail ! L’idée du robot cuisinier qui fait aussi le ménage n’est pas nouvelle, en revanche, on commence seulement à les voir apparaître dans le monde réel.
La complexité d’analyse de l’environnement et des objets est quelque chose qui a fait perdre les cheveux de plus d’un scientifique. En effet, manipuler votre boite de céréales, servir un jus d’orange et remplir un lave vaisselle sont des tâches relativement compliquées pour un robot. Et pourtant… PACO-PLUS y arrive lentement mais surement !
Parmi les difficultés les plus lourdes de l’intelligence artificielle, nous citerons pour faire court : les degrés de luminosité en fonction de la météo, les fioritures que l’on aime ajouter sur nos produits, les photos représentant des objets réels, les miroirs et l’évolution des fruits et légumes dans le temps.
Cela donne une idée minime mais déjà importante de ce à quoi sera confronté le robot qui vous servira à l’avenir, et une idée de ce que l’équipe européenne de chercheurs du projet PACO PLUS a pu endurer pour arriver au résultat qu’elle présente aujourd’hui.
ARMAR III, le robot au coeur du projet PACO-PLUS, va apprendre son environnement pour interagir avec lui. Pour ce faire, il va pouvoir le toucher, le regarder, et se promener dedans (avec du SLAM ?).
Prenons l’exemple de l’interaction du robot avec la boite de céréales.
Le robot va pouvoir la prendre, évaluer son poids, en déduire la quantité de céréales restante, incliner la boite et verser son contenu dans un bol. Le tout guidé par un coach qui lui explique oralement ce qu’il doit faire (oui, pour le moment l’humain reste indispensable…). ARMAR III apprend à reconnaître l’objet et lui attribue des actions possibles.
« Il apprend le fonctionnement de l’objet en le manipulant« , comme l’explique le professeur Tamim Asfour de l’université de Technologie de Karlsruhe en Allemagne, qui a travaillé sur la partie matérielle du système.

« La pensée du robot n’est pas séparée de son corps, puisqu’il doit l’utiliser pour apprendre à penser. »
L’idée est appelée embodied cognition (l’intelligence corporelle pour traduire simplement), et a déjà un long passé dans l’histoire des sciences cognitives d’après le psychologue Art Glenberg de l’université de Tempe, en Arizona.
« Tout ce que nous pensons en terme de façon d’agir dépend de notre manière d’intéragir avec le monde, ce qui est déterminé conjointement à nos caractéristiques physiques, à notre corps ».
L’intelligence corporelle requière également deux manières sophistiquées de communiquer entre les capteurs de bas niveau – tels que ses capteurs sensoriels placés sur les mains et les yeux – et les groupes de capteurs qui représentent un membre – comme les mains, la tête, etc.
On peut même pousser l’idée plus loin en donnant l’exemple d’un être humain qui souhaite marcher en allant dans une direction donnée. Nombreux sont ceux qui regardent là où ils se dirigent, et marchent sans se demander quelle jambe ils vont déplacer avant l’autre. Ce mécanisme est devenu automatique dans le cerveau, et « la marche » est une fonction-membre du corps à part entière. C’est un exemple de mixité de la pensée avec le corps.
Si ARMAR-III ne sait pas faire une chose, il va se construire une bibliothèque de connaissances pour comprendre la manière fonctionner de cette chose. Il va la manipuler, la regarder sous tous les angles possibles, etc. Ensuite, il lui attribuera des fonctionnalités comme on peut le faire nous-même avec notre corps et les objets qui nous entourent.
Ce robot a été testé dans une cuisine de laboratoire, et après un petit moment d’apprentissage, il était capable d’accomplir de multiples tâches telles que rechercher un objet (l’identifier, se déplacer vers l’endroit où il se trouve, etc.).
Ce qui est impressionnant, c’est qu’une fois qu’ARMAR-III a appris un objet et qu’on lui a dit « ceci est une tasse verte », il comprend de quoi on lui parle lorsqu’on évoque à nouveau cet objet.
A mon avis, ce n’est pas la dernière fois que l’on entendra parler de cet humanoïde ! 🙂
Source :
IEEE Spectrum
PACO PLUS

Laisser un commentaire