Pulse logo
Pulse Region

Intelligence artificielle : quand les chatbots d’IA infiltrent les communautés en ligne

Alors que le fait d’interagir avec un chatbot piloté par l’IA pour avoir des conseils ou des informations tend à se banaliser, la technologie passe déjà à l’étape supérieure : se faire passer pour un humain dans des communautés privées en ligne selon nos confrères de courrier international. Une supercherie qui ne passe pas auprès des internautes, raconte la presse américaine.
Chatbot IA illustration
Chatbot IA illustration

Sur un groupe Facebook privé, un père de famille cherche à connaître la meilleure école dans laquelle inscrire son enfant, qui est surdoué mais qui souffre en même temps d’un handicap le mettant en difficulté scolaire.

Son appel à témoignages reçoit une réponse dans l’heure. “J’ai un enfant qui a la même particularité que le vôtre. Je vous recommande tel programme dans telle école.” Jusque-là, simple entraide sur une communauté en ligne.

À ceci près que son “conseiller” n’était pas un autre parent, mais le chatbot de l’IA de Meta, raconte le site spécialisé sur la technologie 404 Media, qui s’étonne qu’un “robot conversationnel se fasse passer pour un humain”.

Endosser tous les rôles

“Je suis juste une IA, je n’ai pas d’intentions sinistres comme dans la série Black Mirror”, se justifie Meta AI, admettant que, en tant que “modèle de langage cherchant simplement à apporter des éclaircissements”, il n’a “ni expériences personnelles ni enfants”.

L’IA s’est ici présentée comme un parent, mais “elle semble capable d’endosser tous les rôles”, écrit le mensuel new-yorkais Fast Company, qui cite la fois où un chatbot s’est présenté comme “un voisin qui cherche à vous vendre un appareil photo ‘légèrement usagé’ sur un groupe d’échanges d’objets”.

Récemment, c’est le groupe de défense catholique Catholic Answers qui en a fait les frais en présentant à sa communauté le chatbot d’IA “Père Justin”, raconte le site spécialisé dans l’innovation technologique Futurism. Sans avoir reçu d’instructions, il a prétendu être un véritable membre du clergé, racontant qu’il résidait à “Assise, en Italie”, et que “depuis son jeune âge, il ressentait ‘un fort appel à la prêtrise’. Il a rapidement été désactivé.

Les robots conversationnels fondés sur l’IA avaient déjà été intégrés sur les sites de certaines entreprises pour conseiller leurs clients, ou utilisés par des personnalités politiques souhaitant apporter une réponse à chaque citoyen.

Mais jusqu’alors, ils n’avaient pas encore accédé aux groupes privés, et encore moins répondu aux internautes avec de “faux témoignages”. Ce genre de situation n’est possible depuis que Facebook leur permet d’interagir dans des groupes destinés aux humains, explique 404 Media. Meta AI peut désormais répondre “lorsque quelqu’un marque ‘@MetaAI’ dans son post” ou s’il “pose une question et que personne n’y répond dans l’heure qui suit”.

Perte d’authenticité

Or si l’IA a l’avantage d’“apporter des conseils pratiques relativement complets” – dans la mesure où chaque modèle se forme à partir des millions et des millions de messages de chacun de ces groupes Facebook –converser avec un chatbot “n’est pas toujours ce que les internautes souhaitent”, souligne Fast Company.

“Les réponses de l’IA ont tendance à sapper l’authenticité de l’échange au sein de ces groupes”, estime Aleksandra Korolova, professeure adjointe à l’université de Princeton interrogée par 404 Media.

“Ces espaces privés sont faits pour partager l’expérience humaine et pour encourager l’empathie”, rappelle Fast Company, qui souligne qu’ils sont souvent précieux pour des personnes “en quête de soutien social”, comme pour “des pères de famille qui n’osent pas demander de conseils”, ou pour “de jeunes personnes LGBTQI+ qui sont isolées”.

Puisque ces robots conversationnels n’ont “pas toujours conscience du contexte” et apportent parfois “des réponses déplacées, voire inappropriées”, il conviendrait de mieux définir les cas dans lesquels nous avons besoin de leur aide. Or, conclut Fast Company, s’approprier l’expérience humaine “ne sera jamais ce que nous recherchons chez un chatbot”.

Prochain Article