Cartographie 3D pour pilotage de robots
Simplification par bounding boxes

Cartographie 3D pour pilotage de robots

La video d'explication

Cette semaine, les résultats de la reconstitution en 3D se simplifient.

L'objectif est d'établir une cartographie en 3 dimensions. Le calcul de la trajectoire d'un robot ou de son/ses bras est facilité lorsque la représentation du monde adapte son niveau de détail à l'objectif recherché : éviter un obstacle, se déplacer vers une cible ou saisir un objet.

Un premier niveau de détail désirable peut être l'identification de zones d'influence ou bounding box pour chaque objet observé. Celle-ci est obtenue en transformant les images enregistrées par la caméra du robot :

Des 2 dimensions de la video, l'algorithme FCRN enrichit les données perçues avec une profondeur estimée. L'association de plusieurs observations crée un nuage de points en 3 dimensions, reflet de la scène réelle.

Un autre algorithme de type deep learning (segmentation) permet de découper l'image avec des zones d'intérêt. Les points appartenants aux segments ainsi découpés sont alors remplacés par une boite pour chaque segment.

Au final il ne reste que les boites et le sol, bientôt les murs : Une cartographie très utile pour la prise de décision du robot.

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets