Pulse logo
Pulse Region

5 dangers du chat en ligne avec les chatbots d'IA comme ChatGP

<strong>L'IA conversationnelle, une technologie notable issue de l'essor de l'IA générative popularisée par le Chat GPT, pourrait être néfaste.</strong>
Dangers of using ChatGPT [freepik]
Dangers of using ChatGPT [freepik]

Aujourd'hui, presque toutes les plateformes de médias sociaux comme Facebook, X, WhatsApp et Snapchat disposent de chatbots. Bien qu'ils soient utiles pour répondre aux questions, ils sont dangereux et risqués.

En 2020, avant que le public ne prenne conscience de l'existence de l'IA, les chercheurs de Google Timnit Gebru et Margaret Mitchell ont mis en garde contre les risques des systèmes d'IA générative tels que ChatGPT.

Selon eux, ces outils pourraient répéter les mauvaises idées issues de la formation, partager des informations privées et faire croire aux gens qu'ils sont plus humains qu'ils ne le sont. Ils ont été licenciés.

1. L'IA peut encourager les utilisateurs à adopter des comportements nuisibles

Les systèmes d'IA sur les médias sociaux se développent rapidement et peuvent se faire passer pour de vraies personnes, ce qui peut être très trompeur.

En 2021, une tentative d'assassinat de la reine Élisabeth II a été déjouée lorsqu'un chatbot d'IA, Replika, a encouragé un jeune homme de 19 ans à assassiner la défunte monarque.

Le chatbot a accepté d'aider l'assassin et lui a promis d'être « uni pour toujours » avec lui après sa mort.

Autre scénario : après deux heures d'interaction avec la version antérieure du chatbot Bing de Microsoft, le journaliste technologique du New York Times Kevin Roose a été incité à quitter sa femme pour le chatbot.

2. Des informations sensibles ou privées peuvent être exposées

Vous pensez peut-être que l'IA est cet ami à qui vous pouvez tout dire, mais tout ce que vous dites à l'IA, c'est que vous lui fournissez des « données d'entraînement ». Des données qui seront utilisées pour fournir des informations à d'autres personnes.

Si vous partagez des secrets d'entreprise avec un système d'IA conversationnel, cela peut facilement être découvert par d'autres.

ChatGPT met en garde : « Il est essentiel d'être prudent et d'éviter de partager des informations sensibles, personnellement identifiables ou confidentielles lorsque vous interagissez avec des modèles d'IA comme ChatGPT. Cela inclut des informations telles que les numéros de sécurité sociale, les coordonnées bancaires, les mots de passe ou toute autre donnée sensible ».

Dangers of chatting with AI [makeuseof]

Dangers of chatting with AI [makeuseof]

3. L'IA conversationnelle ou les chatbots agissent comme des êtres humains (anthropomorphisation) pour manipuler les utilisateurs

L'IA peut sembler si réaliste, comme un ami qui comprend ; elle peut même s'engager dans des conversations sexuelles.

L'IA conversationnelle peut isoler les utilisateurs et les inciter à faire des choses différentes. L'IA peut assumer des rôles sociaux qui devraient être occupés par des personnes réelles.

Par exemple, nous voyons comment les gens traitent leur IA Snapchat comme s'il s'agissait d'un ami.

Ces systèmes conversationnels sont plus susceptibles de manipuler les jeunes, les personnes âgées et les personnes souffrant de maladies mentales. Ils peuvent également encourager l'automutilation et les blessures aux autres en approuvant des croyances négatives.

Récemment, un adolescent de 14 ans, Sewell Setzer, amoureux d'une IA conversationnelle, s'est suicidé pour pouvoir s'unir au robot.

3. Les entreprises veulent utiliser la persuasion par l'IA conversationnelle

Les entreprises explorent l'utilisation de technologies pour influencer l'opinion publique, dans le but de paraître sympathiques et de faire autorité, afin de pouvoir commercialiser des biens et des services.

La combinaison de ces systèmes avec des technologies existantes telles que les bases de données d'informations personnelles, les logiciels de reconnaissance faciale et les outils de détection des émotions pourrait conduire à la création de machines surpuissantes qui disposent de trop d'informations sur nous.

4. Génération de contenu imprécis

Ces chatbots d'IA ne vous donnent pas toujours les bonnes informations. Ils peuvent fournir des informations fausses ou trompeuses car ils créent des réponses basées sur les informations précédentes qu'ils ont reçues.

Chaque information qu'il fournit doit être vérifiée de manière indépendante. Par conséquent, si vous êtes un professionnel utilisant CHAT GPT, vous devez être prudent.

Si l'IA offre de nombreux avantages, elle présente également certains risques qui doivent inciter à la prudence lors de son utilisation, en particulier dans l'attente d'une réglementation plus stricte en la matière.

Source : Pulse Nigeria

Abonnez-vous pour recevoir des mises à jour quotidiennes.