Anthropologie au pays des droïdes

armée de stormtrooper en Lego d'après Star Wars

Stormie et ses Stormettes feraient peut-être bien de consulter un manuel de savoir-vivre. (Crédit photo : Pixabay)
A l’image des humains, un robot doit savoir se comporter en société. Pour commencer, en se tenant à la bonne distance de ses utilisateurs : ni trop près, ni trop loin. Mais quelle est cette distance idéale ? Une question bien plus délicate qu’il n’y paraît : la science qui étudie ces questions recèle encore bien des mystères, et même quelques surprises !

Trop près, trop tard : et si ce slogan s’appliquait aussi aux robots ? Au travail comme à domicile, nous interagissons souvent avec des robots. De quelle manière ? « C’est un fait largement démontré : les gens ont tendance à interagir avec les machines comme avec les humains », note Samuel Marcos, chercheur et chef de projet en robotique au centre technologique Cartif à Valladolid (Espagne).

Pour vivre en communauté, l’Homme doit respecter certaines règles tacites, comme ne pas franchir la ‘bulle personnelle’ des autres. « Les robots doivent aussi suivre cette norme sociale pour être acceptés dans la société humaine » remarque Yunkyung Kim. Ce chercheur au Korea Advanced Institute of Science and Technology à Daejeon (Corée du Sud) a été parmi les premiers à rapprocher robotique et proxémie, la science de notre usage de l’espace.

Apprendre, modéliser, calculer

Imaginez un robot mobile s’approchant de vous trop près. Trop vite. Que ressentez-vous ? Votre appréhension s’élèverait probablement si vous étiez assis plutôt que debout. Pour Mohamed Chetouani, Professeur à l’Institut des Systèmes Intelligents et de Robotique à l’Université Pierre et Marie Curie, « l’ajustement de la vitesse et de la distance dépendent de la position de la personne. C’est le genre de choses qu’il faut apprendre, modéliser, calculer. »

A présent, vous vous apprêtez à croiser quelqu’un dans un couloir étroit. De quel côté obliquer ? Cette situation n’est pas toujours évidente, face à des humains… comme face à des robots. « Si le robot ne vous montre rien, vous êtes incapable de savoir de quel côté il va tourner », analyse Mohamed Chetouani.  Ce problème social engendre aussi un problème de tâche : il empêche le robot et vous-même de traverser le couloir. « Cette question n’est pas simple, reconnaît le chercheur. Ce n’est pas seulement statique, c’est une dynamique. »

 « J’ai vu des gens caresser leur Roomba »

Si la proxémie dépend de l’utilisateur, elle diffère aussi selon la physionomie du robot. En 2015, Samuel Marcos et ses collègues ont observé1 que dans un même contexte, les humains se tiennent plus loin d’un robot à forme humanoïde que d’un robot muni uniquement d’un écran d’ordinateur. Mais ces distances varient fortement selon les individus. Pour Samuel Marcos, « la distance sociale ‘convenable’ d’un robot dépend de nombreux paramètres, comme son apparence, son environnement, ou sa ‘relation’ avec l’utilisateur. J’ai vu des gens caresser leur Roomba [NDLR : robot-aspirateur]. »

Au-delà d’optimiser l’acceptabilité d’un robot, la proxémie permet aussi de traduire l’état d’esprit des humains face au robot. Doreen Sim est Professeur émérite à l’Université de Malaisie (Sarawak, Malaisie). Pour elle, « la proxémie est l’une des mesures les plus importantes pour étudier les interactions humain-robot. » Les distances entre robots et humains sont en effet corrélées à des constantes physiologiques telles que le rythme cardiaque, l’activité cérébrale ou la moiteur de la peau.  D’après la chercheuse, « nos réponses psychologiques comme le niveau de peur, d’affection et de nervosité varient aussi avec la distance sociale. »

La façon dont vous interagissez avec un robot traduit non seulement votre engagement, mais aussi votre personnalité. Mohamed Chetouani et son équipe2 ont demandé à des humains de donner un objet à un robot, après avoir rempli un questionnaire de personnalité. En étant attentifs aux distances que maintenaient les humains avec le robot, les chercheurs ont pu estimer la personnalité et l’attitude des participants. « Imaginez-vous dans cette situation, suggère Mohamed Chetouani. Si vous n’avez pas envie d’interagir, vous allez juste tendre la main et attendre que le robot vienne vers vous pour prendre l’objet. » Inversement, les individus plus curieux tendent à s’approcher du robot, se pencher vers lui et même poser l’objet dans sa main. But ultime de ces recherches : que les robots nous comprennent mieux.

Spencer et les sphères invisibles

En 1973, l’anthropologue Edward Hall décrit notre espace vital3 comme des sphères invisibles de 40 à 360 cm de rayon. Des distances sociales propres à chaque individu. Difficile donc d’enseigner ces lois immuables à des robots. « Si une personne est plutôt curieuse, elle va se rapprocher du robot. Comme il doit toujours être à 30 centimètres d’elle, il va s’éloigner. Ça va être un peu étrange » souligne Mohamed Chetouani, Professeur à l’Institut des Systèmes Intelligents et de Robotique à l’Université Pierre et Marie Curie. La solution : l’apprentissage automatique. Le robot s’adapte et recrée les comportements de son utilisateur. « On n’a plus de définition exacte des distances, c’est totalement automatisé. Il apprend la subjectivité de la proxémie. »

C’est le cas de Spencer, un robot humanoïde conçu par des chercheurs européens dont Mohamed Chetouani. Le droïde s’est vu confier la périlleuse mission d’interagir avec plusieurs personnes à la fois. Inauguré en mars 2016, il guide des groupes de passagers en transit à l’aéroport international d’Amsterdam Schiphol (Pays-Bas). Par apprentissage automatique, Spencer peut s’adapter à la structure d’un groupe de 3 à 4 personnes ! Ci-dessous, présentation de ce nouvel employé de la compagnie KLM.

Sources

  1. Rodriguez-Lizundia, E., Marcos, S., Zalama, E., Gómez-García-Bermejo, J., Gordaliza, A., 2015. A bellboy robot: Study of the effects of robot behaviour on user engagement and comfort. Int. J. Human-Computer Studies 82: 83–95
  2. Rahbar, F., Anzalone, S., Varni, G., Zibetti, E., Ivaldi, S. et al. Predicting extraversion from non-verbal features during a face-to-face human-robot interaction. International Conference on Social Robotics, Oct 2015, Paris, France. pp.10
  3. Edward T. Hall, La dimension cachée, éd. Seuil, 1971.
  • Kim, Y., 2012. Human-robot social distance in interaction design for robot acceptance, thèse de doctorat (PhD thesis), Korea Advanced Institute of Science and Technology (KAIST).
  • Boucenna, S., Cohen, D., Meltzoff, A. N., Gaussier, P., Chetouani, M., 2016. Robots learn to recognize individuals from imitative encounters with people and avatars, Scientific Reports 6:19908.
  • Sim, D. Y. Y. & Loo, C. K., 2015. Extensive assessment and evaluation methodologies on assistive social robots for modelling human-robot interaction – a review, Information Sciences 301: 305-344.
  • Kim, Y. & Mutlu, B., 2014. How social distance shapes human-robot interaction, Int. J. Human-Computer Studies 72:783-795.
  • Sekmen, A. & Challa, P., 2013. Assessment of adaptive human-robot interaction, Knowledge-Based Systems 42:49-59.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *