Un robot qui a besoin de se déplacer dans un environnement pour accomplir sa mission a besoin d’une analyse cohérente du monde qui l’entoure. Les algorithmes de Localisation et Cartographie Simultanées (SLAM pour Simultaneous Localization and Mapping) font partie de ceux qui répondent à cette problématique. Ils abordent les problèmes de complexité algorithmique, de représentation des connaissances, et de l’observation partielle de l’environnement.
En effet, tout comme un être humain, un robot n’est pas omniprésent et ne voit pas toutes les pièces d’une maison sans y être allé ; à moins qu’un autre robot ne lui fasse part du compte rendu de sa propre visite.
Le SLAM (Simultaneous Localization And Mapping) ou CML (Concurrent Localization and Mapping), consiste à estimer conjointement la position du robot et celle des objets qu’il est capable de reconnaître. Ces objets utilisés comme points de repères, ne sont pas sensés se déplacer ; on les nomme amers.
On aborde le SLAM d’une manière très proche du problème SFM (Structure From Motion) bien connu en imagerie. Ce dernier consiste à déduire une représentation en trois dimensions d’une suite d’observations.
L’une des principales différences entre le SLAM et le SFM est le fait que le SLAM fonctionne en temps réel.
Les algorithmes de type SLAM fonctionnent selon quatre étapes :

Perception
Les algorithmes de perception fournissent à
partir des données issues de capteurs tel qu’un télémètre
laser, une camera. . . un ensemble d’observations
des éléments de l’environnement qui constituent des
amers.
Association de données
Étant donné une observation, on
doit décider si cette observation correspond à un amer
déjà présent dans la carte, et de quel amer il s’agit, ou
bien alors si c’est un nouvel amer à ajouter à la carte.
Proprioception
Les données propriocéptives sont des mesures
internes au système, et renseignent sur l’évolution
de son état. Pour le SLAM, nous nous intéressons
à la position du robot dont l’évolution est typiquement
fournie par des capteurs odométriques ou une centrale
inertielle.
Estimation
L’algorithme d’estimation doit intégrer les
données issues de la perception ainsi que de la proprioception
afin de fournir une estimée de la position du
robot et des positions des amers, ainsi que les incertitudes
associées à ces estimées.

Les ingénieurs de Georgia Tech, de l’université de Pennsylvanie et de Cal Tech ont développé une gamme de véhicules de secours autonomes capables de cartographier et d’explorer des habitations endommagées, en coopération.
Ces véhicules robots sont capables de reconnaitre les portes et les murs des habitations, et se repèrent grâce à cela. Ils sont aussi dotés d’un système GPS.
Le Professeur de Georgia Tech, Henrik Christensen explique :
“Il n’y a pas de meneur puisque chaque robot est capable de faire appel aux collègues disponibles pour aider à l’exploration d’une pièce. Lorsque le premier robot arrive à une intersection, il informe ses collègues de la direction empruntée, ce qui permet d’éliminer les doublons d’enregistrement de zones.”
Cette petite armée de robots fait partie du programme connu sous le nom de Micro Autonomous Systems and Technology (MAST) Collaborative Technology Alliance Program, sponsorisé par l’armée américaine.
L’objectif final est d’étendre les capacités de ces robots pour qu’ils puissent par exemple, voir à travers les murs grâce à une fusion de capteurs infrarouges et de radars.

Sources :
enstb
Georgia Tech

Laisser un commentaire