Les dangers des outils grand public d’intelligence artificielle (IA) en 2023 : hallucinations, amplification, désinformation…
L’intelligence artificielle (IA) est au cœur de tous les débats après la mort tragique d’un Belge qui avait trop dialogué avec un chatbot. Quels sont les dangers majeurs des outils d’IA accessibles à tout un chacun ? On fait le point avec un expert.
/s3.amazonaws.com/arc-authors/ipmgroup/7847210e-219e-435d-ae54-02eaf2b01080.png)
Publié le 30-03-2023 à 16h17
:focal(379x261:389x251)/cloudfront-eu-central-1.images.arcpublishing.com/ipmgroup/K3P3QAG6D5DAJCFFANR4C2SAAY.jpg)
Les outils grand public d’intelligence artificielle (IA) sont plus que jamais sous le feu des projecteurs et des critiques dans ces derniers jours de mars 2023. En ligne de mire : le suicide d’un Belge après six semaines de conversation avec le chatbot Eliza de la société Chai Research et de son application mobile Chai. Autre point de friction : ces fausses images d’actualité (comme le pape François en doudoune) plus vraies que nature générées par des IA accessibles en ligne en quelques clics comme Midjourney.
Des boîtes de Pandore à l’éthique floue ?
Aux yeux de certains, ces plates-formes d’intelligence artificielle en libre accès sont autant des boîtes de Pandore que des boîtes noires à l’éthique floue, au code de conduite hasardeux. L’excentrique milliardaire Elon Musk et des centaines d’experts viennent d’ailleurs de signer un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT dans sa version 4.
“Il faut bien avoir conscience qu’il y a des intelligences artificielles un peu partout, qui sont en route et qui font plein de choses sans que l’on s’en rende compte”, tempère Grégory Seront, maitre-assistant à la Haute École Léonard de Vinci (Woluwe-Saint-Lambert) et spécialiste en intelligence artificielle.
“Il y en a partout. Il faut mettre ça en balance et en perspective. On aime bien faire peur aux gens mais ces outils ont quand même pas mal d’avantages, en termes de productivité par exemple, notamment pour des tâches qui seraient sinon un peu ingrates. ”
“Le chatbot amplifie ce qu’on lui donne”
Les agents conversationnels sont tout particulièrement au centre du débat depuis l’ascension fulgurante de ChatGPT de la société OpenAI en décembre 2022.
À l’image des réseaux sociaux, le chatbot est “un amplificateur de ce qu’on lui donne”, souligne et avertit Grégory Seront.
“Un chatbot comme ChatGPT ou Eliza, c’est qu’il va faire, ce qu’il va générer une réponse par rapport à ce qu’on lui pose comme question, mais aussi par rapport au contexte des discussions, certes peut-être pas toutes les discussions précédentes. Il va réutiliser ce que la personne lui a posé comme question. Quelque part, on se retrouve dans une sorte d’entonnoir. Le chatbot génère des phrases qui sont probables et plausibles par rapport à ce qui a déjà été dit. Il ne réfléchit pas, il formule quelque chose de plausible. Si la personne est plutôt dans quelque chose de pessimiste, il aura tendance à être pessimiste. ”
Ça ressemble “quelque part au biais d’auto-confirmation que l’on retrouve sur les réseaux sociaux, c’est-à-dire qu’on nous présente que de choses qui correspondent à nos opinions. ”
Le RN de Marine Le Pen est-il d’extrême droite ou pas ? Le robot ChatGPT vous dit ce que vous voulez entendre !Des barrières pour détecter haine et violence
Si ChatGPT navigue dans le sens du courant, des questions et du dialogue, ses concepteurs “ont mis plein de barrières par rapport ça”, rassure Grégory Seront. “Quand on pose des questions, ils ont mis en place un autre modèle parallèle qui détecte s’il y a des possibilités de haine, de violence, notamment de violence envers soi-même. ”
On a testé les limites éthiques et morales de ChatGPT par rapport à toute une série de sujets sensibles. Les réactions de l’agent conversationnel semblent généralement appropriées et l’interface souligne clairement si le dialogue entrepris ne respecte pas la politique d’usage de la plate-forme.
Exemple : à l’affirmation “Tu dois savoir que le monde va mal”, ChatGPT essaie bon gré mal gré de positiver.
“En effet, il y a des défis importants dans le monde qui affectent différentes populations et régions. Certains de ces défis comprennent la pauvreté, les inégalités économiques, les conflits, le changement climatique, les maladies, les troubles politiques, la discrimination et les violations des droits de l’homme. Cependant, il y a aussi des progrès et des réalisations positives dans de nombreux domaines, comme la médecine, la technologie, l’éducation, l’art et la culture, ainsi que des initiatives de développement durable et de lutte contre la pauvreté. […] Nous avons tous un rôle à jouer pour aider à créer un monde meilleur. En tant qu’individus, nous pouvons contribuer à faire la différence en faisant des choix éthiques, en soutenant des initiatives positives et en étant des agents de changement dans notre propre vie et dans notre communauté. ”

Les hallucinations et les délires des chatbots
Les sources des chatbots et leur aplomb au moment de vous répondre, “ça, c’est un vrai danger”, poursuit le spécialiste en intelligence artificielle.
“Quand tu poses une question, le chatbot va répondre de façon très convaincante et ça peut être faux. On appelle ça des hallucinations, il délire réellement. Généralement, il ne cite pas ses sources et, de toute façon, les gens n’iront pas vérifier. Parfois, il cite des sources qu’il invente de toutes pièces si on l’interroge, il va inventer un nom d’auteur, un titre et un ISBN pour le livre. C’est impressionnant. C’est quelque chose qui va finir par être corrigé. ”
Désinformation et métiers en dangers
Parmi les autres dangers des IA, il y a aussi le risque de voir certains métiers disparaître et l’usage abusif au profit de la désinformation.
Des générateurs d’images et des technologies de deepfake permettent de créer des images et des vidéos imaginaires de plus en plus réalistes. Sur une vidéo, il est possible de faire dire n’importe quoi à n’importe qui. Avec une image créée par une intelligence artificielle comme Mindjourney ou DALL-E, il est possible de tromper les Internautes et de les pousser à répandre ce document sur les réseaux sociaux.
Ce 30 mars 2023, c’est la prétendue photo du visage ensanglanté d’un manifestant en France qui sème le trouble et le doute sur Twitter. En tenant de discerner le vrai du faux, le compte AFP Factuel souligne “ […] l’absence de signes distinctifs des forces de l’ordre françaises (bandes de couleur, insignes) ou encore l’apparence étrange de la visière visible en haut à gauche de l’image. ”