Défi CAROTTE, les résultats !

Il y a quelques semaines, un billet vous expliquait ce qu’était précisément le concours CAROTTE. Cette année, les cinq équipes participantes, Cartomatic, Corebots, Pacom, Robots Malins et Yoji se sont à nouveau confrontées aux difficultés des algorithmes SLAM.

L’année dernière, l’attention était portée sur la capacité des robots à faire une cartographie correcte des pièces de l’arène.
Cette année, la difficulté a été axée sur la reconnaissance des objets présents dans les salles. Pour corser la chose, les organisateurs avaient placé des miroirs un peu partout. Quoi de plus difficile pour un robot que de différencier l’image renvoyée par un miroir d’une image réelle ?

Corebots a, cette année encore, remporté la compétition grâce à un robot rapide, qui s’est montré capable d’explorer et cartographier la totalité de l’appartement. Les autres équipes ont des scores très proches les uns des autres et préparent la contre-offensive pour l’an prochain, avec des solutions améliorées pour la reconnaissance d’objets (l’approche de Pacom semble extrêmement prometteuse) ou des stratégies d’exploration mutli-robots (comme pour Robots_Malins ou Cartomatic).

L’équipe Yoji qui représente Aldebaran Robotics, quant à elle, recueille depuis deux ans l’admiration de toutes les équipes de par son choix d’intégrer le SLAM à un humanoïde. Si ses performances restent légèrement inférieures à celles des autres équipes, les progrès de cette année laissent présager que l’édition finale en 2012 pourrait réserver son lot de surprises.

Sources : DGA et ANR
Illustrations sous copyright DGA

Les algorithmes d'exploration SLAM utilisés en coopération.

Un robot qui a besoin de se déplacer dans un environnement pour accomplir sa mission a besoin d’une analyse cohérente du monde qui l’entoure. Les algorithmes de Localisation et Cartographie Simultanées (SLAM pour Simultaneous Localization and Mapping) font partie de ceux qui répondent à cette problématique. Ils abordent les problèmes de complexité algorithmique, de représentation des connaissances, et de l’observation partielle de l’environnement.
En effet, tout comme un être humain, un robot n’est pas omniprésent et ne voit pas toutes les pièces d’une maison sans y être allé ; à moins qu’un autre robot ne lui fasse part du compte rendu de sa propre visite.

Le SLAM (Simultaneous Localization And Mapping) ou CML (Concurrent Localization and Mapping), consiste à estimer conjointement la position du robot et celle des objets qu’il est capable de reconnaître. Ces objets utilisés comme points de repères, ne sont pas sensés se déplacer ; on les nomme amers.
On aborde le SLAM d’une manière très proche du problème SFM (Structure From Motion) bien connu en imagerie. Ce dernier consiste à déduire une représentation en trois dimensions d’une suite d’observations.
L’une des principales différences entre le SLAM et le SFM est le fait que le SLAM fonctionne en temps réel.

Les algorithmes de type SLAM fonctionnent selon quatre étapes :

Perception
Les algorithmes de perception fournissent à
partir des données issues de capteurs tel qu’un télémètre
laser, une camera. . . un ensemble d’observations
des éléments de l’environnement qui constituent des
amers.
Association de données
Étant donné une observation, on
doit décider si cette observation correspond à un amer
déjà présent dans la carte, et de quel amer il s’agit, ou
bien alors si c’est un nouvel amer à ajouter à la carte.
Proprioception
Les données propriocéptives sont des mesures
internes au système, et renseignent sur l’évolution
de son état. Pour le SLAM, nous nous intéressons
à la position du robot dont l’évolution est typiquement
fournie par des capteurs odométriques ou une centrale
inertielle.
Estimation
L’algorithme d’estimation doit intégrer les
données issues de la perception ainsi que de la proprioception
afin de fournir une estimée de la position du
robot et des positions des amers, ainsi que les incertitudes
associées à ces estimées.

Les ingénieurs de Georgia Tech, de l’université de Pennsylvanie et de Cal Tech ont développé une gamme de véhicules de secours autonomes capables de cartographier et d’explorer des habitations endommagées, en coopération.
Ces véhicules robots sont capables de reconnaitre les portes et les murs des habitations, et se repèrent grâce à cela. Ils sont aussi dotés d’un système GPS.

Le Professeur de Georgia Tech, Henrik Christensen explique :
« Il n’y a pas de meneur puisque chaque robot est capable de faire appel aux collègues disponibles pour aider à l’exploration d’une pièce. Lorsque le premier robot arrive à une intersection, il informe ses collègues de la direction empruntée, ce qui permet d’éliminer les doublons d’enregistrement de zones. »

Cette petite armée de robots fait partie du programme connu sous le nom de Micro Autonomous Systems and Technology (MAST) Collaborative Technology Alliance Program, sponsorisé par l’armée américaine.

L’objectif final est d’étendre les capacités de ces robots pour qu’ils puissent par exemple, voir à travers les murs grâce à une fusion de capteurs infrarouges et de radars.

Sources :
enstb
Georgia Tech