L'amour à l'heure de l'IA
  • Recherche

Les rencontres amoureuses à l’heure de l’informatique émotionnelle

Et si les algorithmes étaient capables de détecter notre partenaire idéal ? Et si l’amour pouvait se traduire en équation ? Avec Laurence Devillers, professeure à Sorbonne Université en informatique appliquée aux sciences humaines et sociales, nous verrons comment l’intelligence artificielle investit toujours plus la sphère de l’intime pour le meilleur et pour le pire.

« Aimez-vous l’avocat ? » C’est l’une des phrases d’accroche préférée de Bernie.AI, un entremetteur artificiel. Aujourd’hui disparu, cet algorithme proposait à ses utilisateurs des profils de partenaire en fonction de leurs préférences physiques et entamait avec eux la conversation. En répondant à ce type de questions ou en sélectionnant les profils qui nous plaisent, nous fournissons aux applications et sites de rencontre quantité d’informations sur nos goûts, notre situation personnelle, notre intimité. Les algorithmes exploitent ensuite ces données pour analyser nos préférences, nous classer, prédire nos choix, voire procéder à des appariements entre profils, les fameux « matchs ». Mais, au-delà de nos goûts et de nos habitudes, l’intelligence artificielle (IA) est aujourd’hui capable d’un nouveau type de profilage : celui de nos comportements fins, de notre personnalité et de nos émotions.

« Si nous n’avons pas directement accès aux émotions de quelqu’un, nous pouvons en revanche détecter un certain nombre d’indices à travers son comportement, ses gestes, sa posture, sa voix, son visage, les mots qu’il emploie, etc. », explique Laurence Devillers. Auteure en 2020 d’un livre sur les robots émotionnels1, elle étudie depuis vingt ans l’informatique émotionnelle, une branche de l’IA née en 1997 au MIT qui utilise ces discrets indices pour déceler des tendances sur nos réactions affectives et notre personnalité.
Par exemple, grâce à ce domaine d’expertise, il est aujourd’hui possible de développer une machine capable d’analyser le comportement de personnes qui sont en train d’interagir, de voir s'ils rient ensemble, s'ils parlent beaucoup, s’ils sont enthousiastes, tristes ou empathiques. A partir de ces observations, les ingénieurs peuvent programmer des algorithmes permettant de déduire un certain « pronostic » sur la compatibilité amoureuse entre ces personnes. « Mais que signifie ce pronostic qui relève davantage de l’horoscope que de la science ? Que veut dire détecter l’amour ? Est-ce identifier une certaine attirance ? un respect mutuel ? un partage ? Nous sommes bien plus complexes que cela », affirme la chercheuse.

Les nouveaux horoscopes de l’amour

Quelle que soit la définition de l’amour, les systèmes de reconnaissance des émotions ne sont pas encore suffisamment au point pour identifier des éléments objectifs du sentiment amoureux. Selon Laurence Devillers, les plus performants d’entre eux font encore près de 20% d'erreurs dans la détection de quatre émotions simples : la joie, la colère, la peur et la tristesse. Ils calculent des tendances approximatives mais ne sont pas assez robustes pour prendre en compte la diversité avec laquelle nous nous exprimons et la richesse et la complexité de nos émotions. « La culture d’une personne, son éducation, sa personnalité viennent modifier son comportement et sa façon de s’exprimer, indique la spécialiste. Dans certains pays, on masque beaucoup ses émotions, alors que dans d'autres, on les surjoue. Il est donc très difficile de trouver une interprétation universelle de ces indices comportementaux. » A cet obstacle s’ajoute celui du contexte : « Nous pouvons pleurer de joie, de rire ou de tristesse. Le fait de pleurer n’est donc pas suffisant pour affirmer que quelqu’un est triste. »

Un besoin toujours croissant de données

« Ce qui manquait jusque-là pour accroître les performances de détection émotionnelle des machines, c’était l’accumulation de données en contexte, poursuit la chercheuse. Or tous les systèmes des GAFA (Alexia, Google home, Cortana, Siri, etc.) capturent vos données émotionnelles lorsque vous communiquez avec eux. Il existe même un bracelet connecté qui analyse vos paroles pour vous dire si vous êtes plutôt triste, joyeux ou en colère. » Pour Laurence Devillers, l'opportunité de pouvoir aujourd’hui collecter énormément de données audio grâce aux agents conversationnels va changer le monde en permettant aux machines de s’entraîner sur des bases de données beaucoup plus riches. « Cela va nécessiter une plus grande vigilance de la part de nos gouvernants », observe-t-elle.

Une frontière à ne pas dépasser

Au-delà des risques pour nos données, l’utilisation de l’IA dans la rencontre amoureuse pose également des problèmes éthiques. « Sous couvert d’une pseudo-efficacité, nous risquons de faire émerger une certaine forme d’endogamie. Parce qu’elles n’auront pas les mêmes goûts, les mêmes tendances, les mêmes intérêts, des personnes ne “matcheront” jamais si les algorithmes sont programmés pour apparier celles et ceux qui se ressemblent. » Avec l’IA, le brassage qu’offrait le hasard risque de disparaître.

Autre enjeu : le développement d’ontologies amoureuses comme dans le film Her. « Il sera sans doute possible dans l’avenir de créer des entités virtuelles qui auront une compréhension plus évoluée et seront capables de simuler des comportements humains qui pour certains seront trompeurs », indique la chercheuse. Mais aussi complexe soit-elle, une machine ne pourra que copier l’humain sans jamais l’égaler. « Les machines ne sont pas responsables de ce qu’elles disent. Elles n’ont pas d’intention propre si ce n’est celle de leur programmeur, rappelle-t-elle. Même si leurs réponses semblent élaborées, elles ne comprennent pas le sens profond de ce qui est dit. Elles interprètent seulement la surface. »

Les machines ne sont pas responsables de ce qu’elles disent. Elles n’ont pas d’intention propre si ce n’est celle de leur programmeur,

Laurence Devillers

Selon Laurence Devillers, il y a là une frontière à ne pas dépasser. « Si nous continuons à rendre l'IA toujours plus anthropomorphique comme certains le veulent, nous ne saurons plus déceler le vrai du faux, alerte l’informaticienne. Nous risquons demain d'avoir des “amis machines”, des “anges gardiens” pleins de sollicitude à qui nous prêterons des capacités humaines ». Ce simulacre de partenaire, biberonné aux données émotionnelles, sera alors plus à même d’utiliser nos biais cognitifs pour nous manipuler et collecter nos informations.

De la nécessité d’une discussion éthique

C’est pourquoi il est indispensable, pour Laurence Devillers, que la société s’empare de la discussion autour de ces enjeux éthiques. Chargée de rédiger, au sein du Comité national pilote d'éthique du numérique, des préconisations à destination des gouvernants, de la société et des industriels, elle ajoute : « Nous essayons d'anticiper certains comportements des machines en nous demandant s’ils respectent nos libertés et nos droits. Dans ce cadre, nous avons fait une consultation publique, à laquelle les étudiants de Sorbonne Université ont d’ailleurs participé, et dans laquelle nous questionnions certaines tensions éthiques (pensez-vous qu’il est bon de donner un nom à un chatbot ? que ce type de machine puisse vous mentir ? Si oui, dans quel cadre ? Etc.) » La chercheuse espère qu'avant qu’une IA ne soit suffisamment évoluée pour nous faire oublier sa vraie nature, la société aura discuté de ces enjeux éthiques et informer les citoyens sur les avantages et les potentielles dérives de ces nouvelles technologies émotionnelles.


1 Les Robots émotionnels : santé, surveillance, sexualité… et l'éthique dans tout ça ?, 2020, Editions de l'Observatoire.

Laurence Devillers

Professeure d’informatique appliquée aux sciences sociales

Je ne cherche pas à faire de la régulation, mais à poser les bases de bonnes pratiques en IA.



Les robots émotionnels

Par Laurence Devillers

Santé, surveillance, sexualité... : et l'éthique dans tout ça ?