banniere

Annonces de stages

Retour

PROPOSITION de STAGE M2 (gratifié)

ACCESSPACE: conception et évaluation d'un "GPS" tactile d'intérieur et d'extérieur pour les déficients visuels.

Mots clefs:Vision par ordinateur, fusion de capteurs, SLAM, segmentation sémantique, Android, carte géographique augmentée, substitution sensorielle

Contexte:

La mobilité de l’homme est un sujet très complexe et peu étudié; acquise à la naissance par des mécanismes cognitifs méconnus, la mobilité constitue une question fondamentale tant pour les personnes présentant une incapacité visuelle (PPIV, souvent appelés les déficients visuels) que les sujets sains interagissant dans des situations perceptuellement complexes (e.g. pompiers, chirurgiens), ou encore pour le design de systèmes mobiles autonomes (e.g. un robot humanoïde ou une voiture intelligente).

L’objectif des travaux menés au LITIS (de l’Université Rouen-Normandie) dans le cadre de projets transdisciplinaires internationaux (e.g. ACCESSPACE, SEES) et nationaux (e.g. TETMOST - Défi AUTON, CNRS) est de comprendre et modéliser les mécanismes cognitifs de la mobilité afin de concevoir des dispositifs d’aide à la mobilité indépendante et autonome des PPIV. Les prototypes académiques réalisés (TRL 4-6) allient les TIC (électronique, vision par ordinateur, traitement du signal, informatique), et les neurosciences cognitives.


Objectifs du stage:

Ce stage de recherche vise le développement d’un dispositif embarqué d’assistance au déplacement pour les PPIV, fondé sur les théories de la cognition spatiale humaine. Ce système devrait être un « GPS spécialisé » employant divers capteurs (caméra, GPS et IMU) pour fournir une carte géographique augmentée à son porteur par retour haptique, grâce à une ceinture vibrante contrôlée par Arduino et Raspberry Pi.

Ce dispositif devra permettre aux déficients visuels d’apprendre à percevoir leur environnement en recodant tactilement leur espace proche, afin de pouvoir avancer jusqu’à une destination cible tout en évitant les obstacles proches et gardant son orientation dans l’espace, en intérieur et en extérieur. Le dispositif devra être évalué dans un environnement virtuel, puis expérimentalement en situation écologique, dans une plateforme « perception-mobilité ».

L’objectif du stage (de 4 à 6 mois) est donc de développer et tester la partie du traitement visuel de ce dispositif: odométrie visuelle (avec fusion de données d’autres capteurs), détection et suivi d’obstacles, reconnaissance et localisation de points d’intérêt, SLAM pour les environnements inconnus, etc.

Profil recherché

  • Étudiant de Master 2 / Ingénieur 3A dans une discipline en lien avec le sujet proposé ;
  • Compétences souhaitées : OpenCV, SLAM, fusion de capteurs et programmation OO (Java/Android) ;
  • Goût pour la recherche, pour les travaux fondamentaux, et ouverture pluridisciplinaire ;
  • Bon niveau d’anglais ;
  • Esprit d’équipe.

Informations administratives :

  • Rémunération au taux de la gratification standard (3.75€ /h, soit 577.5€ par mois environ) ;
  • Équipe de recherche et lieu de stage : STI, du laboratoire LITIS (http://litislab.eu/) et à l’Université de Rouen-Normandie (Rouen / Saint-Etienne-du Rouvray) ;
  • Début de stage : à fixer avec les encadrants.

Contacts (encadrants)

Envoyer le CV, lettre de motivation, les notes de M1 et de M2, ainsi que les noms de votre responsables de formation par l’email (objet : Stage M2 –GPS-PPIV).

  • (PU) Edwige PISSALOUX : edwige.pissaloux@univ-rouen.fr
  • (Post-doc) Simon GAY : gssimonn@hotmail.com
  • (PhD) Marc-Aurèle RIVIERE : marc.aurele.riviere@gmail.com

Références :

  • Velazquez, R., Fontaine, E., & Pissaloux, E. (2006). Coding the Environment in Tactile Maps for Real-Time Guidance of the Visually Impaired, IEEE Int. Symp. on Micromechatronics and Human Science, Nov. 6 - 8, 2006 Nagoya, Japan , 1-6
  • Lenay, C., Gapenne, O., Hanneton, S., Marque, C., & Genouëlle, C. (2003). Sensory substitution: Limits and perspectives. Touching for knowing, 275–292.
  • Pissaloux, E.E., Velazquez, R.R., Maingreaud, F., A New Framework for Cognitive Mobility of Visually Impaired Users and Associated Tactile Device, IEEE Trans. Human-Machine Systems, vol. 47 Issue 6, pp.1-12, 2017
  • Pissaloux, E., Velazquez, R., (éd.), Mobility in Visually Impaired People – Fundamentals and ICT Assistive Technology, Springer, 2017
  • Li, B., Munoz, J. P., Rong, X., Xiao, J., Tian, Y., & Arditi, A. (2016). ISANA: wearable context-aware indoor assistive navigation with obstacle avoidance for the blind. In European Conference on Computer Vision (pp. 448–462). Springer.
  • https://www.scientificamerican.com/article/tactile-traffic-maps-could-help-blind-pedestrians-navigate/