L’intelligence artificielle émotionnelle : quels enjeux pour la protection des données personnelles ?

Lors du dernier Consumer Electrics Show [1]qui s’est tenu en janvier dernier à Las Vegas, le projecteur a été braqué sur l’Intelligence Artificielle et ses applications au quotidien: le rapport exhaustif d’Olivier Ezratty a souligné à juste titre l’émergence de plus en plus forte d’un nouveau genre d’IA, l’IA émotionnelle. A ce titre, plusieurs start-ups ont mis en avant lors de ce CES des projets novateurs en la matière. C’est le cas notamment de :

  • Emoshape, créée par Patrick Levy-Rosenthal qui a présenté son composant électronique « Emotion Processing Unit » (EPU) destiné à capter les émotions des utilisateurs ». A notamment été mise au point une puce capable de synthétiser douze émotions, 6 positives, 6 négatives.

  • Beyond Verbal, spécialisée dans la détection des émotions dans la voix.

  • Batvoice utilisée notamment dans les centres d’appels afin de détecter l’état émotionnel de leurs clients.

Ce qui distinguait jusqu’à aujourd’hui les humains de robots dotés d’intelligence artificielle forte était leur incapacité à ressentir des émotions. Comme le robot Pepper interviewé dans une vidéo du journal Libération [2]« Pepper, peux-tu tomber amoureux ? » auquel il répondit « si je tombe c’est que l’on m’a mal programmé ».

L’enjeu aujourd’hui consiste à doter les robots et les intelligences « artificielles » d’émotions et de sentiments pour leur permettre d’interagir de manière efficace avec les personnes.

Enjeux de l'Intelligence artificielle émotionnelle?

Un robot deviendrait ainsi un être capable de ressentir des émotions, avec au-delà les questions du statut juridique du robot et de sa personnalité juridique avec en filigrane celle de l’homme « augmenté ». Comme l’énonce l’auteur de David Levy, auteur de Love and Sex with Robots, « en 2050, non seulement des individus tomberont amoureux de robots androïdes, mais des mariages entre l’homme et la machine seront célébrés », celui-ci se fondant par exemple sur les nouveaux types de robots sexuels développés aux Etats-Unis.

Ce nouveau genre de robot interpelle sous l’angle de la question de la protection de la vie privée et de la collecte des données personnelles. En effet, à mesure que les interactions avec des robots seront de plus en plus fortes, la masse de données personnelles qui pourrait être collectée et traitée sera considérable à l’image des données générées aujourd’hui par certains objets connectés à usage domestique.

A terme et à travers le recours à des IA émotionnelles, la plupart de nos actions, dialogues, faits et gestes pourraient ainsi être potentiellement stockés dans des serveurs voire retraités, revendus et exploités à d’autres fins. En effet, ces robots d’un nouveau genre et dotés d’intelligence émotionnelle seront programmés pour s’adapter au mieux à leur environnement, grâce à un profilage intense de son environnement (goûts, habitudes de vie, préférences ou réactions…) ce qui impliquera une collecte massive de données personnelles grâce à différents types de capteurs (caméra, micro, biométrie etc...). Et donc des volumes de données sans précédent.

L’intelligence artificielle émotionnelle soulève dès lors de nombreuses questions au vu des frictions éventuelles avec la législation applicable sur la protection des données personnelles.

Ces questions s’adressent aux concepteurs et aux développeurs de telles IA : en effet, la définition et la construction de tels robots implique de prendre en compte à toutes les étapes de leur développement et de leur fonctionnement les principes de privacy by design et de privacy by default ou encore de minimisation de la donnée posés par le RGPD.

Intelligence artificielle émotionnelle et données personnelles

Cette réflexion doit aussi porter sur l’utilisation des données que ces IA vont générer ensuite. Qu’en sera-t-il du stockage des données collectées, de leur traitement et de leur conservation ? Comment l’analyse fine des traits de la personnalité humaine qui est à la base de la conception d’un IA émotionnelle pourra-t-elle être respectueuse du droit fondamental à la protection des données tout en générant des modes de contrôle? Ces questions restent partiellement sans réponse et appellent des développements particuliers, en fonction des technologies développées.

IA

IA

Ces questions ne sont pas éloignées non plus des débats sur le post-humanisme, avec la possible mise en jeu des droits de l’homme par un hypothétique droit des robots.

Alors que l’Union européenne s’engage dans une réflexion juridique et éthique sur l’intelligence artificielle, les avancées de l’IA émotionnelle doivent être pleinement prises en compte à travers les projets concrets mis en place. De la même façon, les acteurs de ce secteur doivent s’impliquer pour une intégration active et efficace des principes applicables en droit de la protection des données. Pour aboutir à des intelligences artificielles respectueuses de la vie privée et génératrice de confiance de la part des usagers et des clients.

Notre cabinet est à votre disposition à Paris et Bruxelles pour évoquer ces questions avec vous.

[1]http://www.oezratty.net/wordpress/2018/rapport-ces-2018/

[2]http://www.liberation.fr/video/2014/09/06/on-a-teste-nao-et-pepper-les-robots-humanoides-qui-vont-revolutionner-nos-foyers_1094573