banniere

Annonces de stages

Retour

PROPOSITION de STAGE M2 (Gratifié)

TactiBELT : Conception et réalisation d’une ceinture à retour haptique pour guider les déficients visuels

Contexte:

La mobilité de l’homme est un sujet très complexe et peu étudié ; acquise à la naissance par des mécanismes cognitifs non identifiés, et oubliés depuis, la mobilité constitue une question fondamentale tant pour les personnes présentant une capacité visuelle (PPIV, souvent appelés les déficients visuel) que des sujets sains interagissant dans des situation perceptuellement complexes (e.g. les pompiers) ou de tout système mobile autonome (e.g. un robot humanoïde ou une voiture dite intelligente).

L’objectif des travaux menés au LITIS (de l’Université Rouen Normandie) dans le cadre de projets internationaux (e.g. ACCESSPACE) et nationaux (e.g. TETMOST (Défi AUTON, CNRS)) transdisciplinaire est de comprendre et modéliser le mécanisme cognitif de mobilité ainsi que concevoir les prototypes d’outils d’aide à la mobilité indépendante et autonome des PPIV, en s’appuyant sur les TIC ad hoc (électronique, vision par ordinateur, traitement du signal, informatique), ainsi que neurosciences et psychologies (cognitive et expérimentale).

Objectifs du stage

Ce stage de recherche vise le développement d’un dispositif portable d’assistance au déplacement pour les DV, basé sur les principes de la substitution sensorielle ainsi que sur les théories de la cognition spatiale humaine, et de tester sa validité, d’abord en milieu virtuel, puis réel. Ce système sera composé d’une ceinture fournissant un retour haptique (via des vibrateurs), contrôlée par des cartes Arduino, ainsi que de divers capteurs (fusion de données visuelles, GPS et odométriques), le tout connecté à un Raspberry Pi.

Ce dispositif devra permettre aux déficients visuels de percevoir leur environnement en recodant tactilement leur espace proche, afin de pouvoir avancer jusqu’à une destination cible tout en évitant les obstacles alentours et gardant son orientation dans l’espace.

L’objectif du stage (de 4 à 6 mois) sera de développer et tester la partie logicielle de ce dispositif (à la fois sur Arduino et Android) : l’algorithme de vision (fusion de données), la détection et le suivi d’obstacles, le calcul d’itinéraires, et le test du dispositif en environnement virtuel (navigation virtuelle) puis réel.

Mots clefs :

Vision par ordinateur, Arduino, carte géographique augmentée, fusion de capteurs, substitution sensorielle.

Profil recherché :

  • Étudiant de Master 2 / Ingénieur 3A en sciences pour l’ingénieur d’une discipline en rapport avec le sujet
  • Compétences en vision par ordinateur (OpenCV, SLAM, fusion de capteurs)
  • Compétences en programmation (Java/Android ou Python, Arduino)
  • Goût pour la recherche, pour les travaux fondamentaux, et ouverture pluridisciplinaire.
  • Bon niveau d’anglais.

Informations administratives :

  • Rémunération au taux de la gratification standard (3.75€ /h, soit 577.5€ par mois).
  • Équipe de recherche et lieu de stage : STI, du laboratoire LITIS (http://litislab.eu/) et à l’Université de Rouen-Normandie (Rouen-Saint-Etienne-du Rouvray) ;
  • Début de stage : à fixer avec les encadrants

Contacts (encadrants)

Envoyer le CV et lettre de motivation par l’email (objet : Stage M2 TactiBelt)

  • (PU) Edwige PISSALOUX : edwige.pissaloux@univ-rouen.fr
  • (Post-doc) Simon GAY : gssimonn@hotmail.com
  • (PhD) Marc-Aurèle RIVIERE : marc.aurele.riviere@gmail.com

Références :

  • Kristjánsson, Á., Moldoveanu, A., Jóhannesson, Ó. I., Balan, O., Spagnol, S., Valgeirsdóttir, V. V., & Unnthorsson, R. (2016). Designing sensory-substitution devices: Principles, pitfalls and potentials. Restorative Neurology and Neuroscience, 34(5), 769 787
  • Velazquez, R., Fontaine, E., & Pissaloux, E. (2006). Coding the Environment in Tactile Maps for Real-Time Guidance of the Visually Impaired, IEEE Int. Symp. on Micromechatronics and Human Science, Nov. 6 - 8, 2006 Nagoya, Japan , 1-6
  • Lenay, C., Gapenne, O., Hanneton, S., Marque, C., & Genouëlle, C. (2003). Sensory substitution: Limits and perspectives. Touching for knowing, 275–292.
  • Pissaloux, E.E., Velazquez, R.R., Maingreaud, F., A New Framework for Cognitive Mobility of Visually Impaired Users and Associated Tactile Device, IEEE Trans. Human-Machine Systems, vol. 47 Issue 6, pp.1-12, 2017
  • Pissaloux, E., Velazquez, R., (éd.), Mobility in Visually Impaired People – Fundamentals and ICT Assistive Technology, Springer, 2017
  • Li, B., Munoz, J. P., Rong, X., Xiao, J., Tian, Y., & Arditi, A. (2016). ISANA: wearable context-aware indoor assistive navigation with obstacle avoidance for the blind. In European Conference on Computer Vision (pp. 448–462). Springer.