Risques de l’intelligence artificielle: quels interdits prévoit l’Europe?
Le développement de l’intelligence artificielle effraie ; elle échappe à ses créateurs. Amnesty dénonce les risques pour les droits humains. Le Parlement européen élabore un projet de règlement fixant les systèmes interdits.
/cloudfront-eu-central-1.images.arcpublishing.com/ipmgroup/DYTMCSUESZD7XCNAQT2XRKE22U.jpg)
Publié le 11-05-2023 à 06h00
:focal(545x371.5:555x361.5)/cloudfront-eu-central-1.images.arcpublishing.com/ipmgroup/URU5R2DKIZDKTGZT5LH7AE2WZ4.jpg)
Ce jeudi, un projet de règles harmonisées concernant l’intelligence artificielle doit être adopté en commissions conjointes du Parlement européen. Analyse des enjeux avec la chargée des questions de technologie et de droits humains d’Amnesty France.
Katia Roux, en quoi ce texte soumis au Parlement européen est-il si important ?
On est vraiment dans une première mondiale. Il s’agit là de la toute première réglementation au monde qui régule les intelligences artificielles. C’est important parce que cela va créer un précédent et combler un vide juridique. Ça peut inspirer d’autres États. Beaucoup de pays s’interrogent sur ces systèmes. C’est pour ça qu’il est essentiel d’aboutir sur un texte ambitieux.
Les intelligences artificielles existent depuis des années, pourquoi légifère-t-on seulement maintenant ?
Il y a quelque part ce sentiment que le droit court toujours après la technologie. Mais le projet de la Commission date de 2021. On sent une prise de conscience, qu’il est urgent de réguler. Amnesty International a sorti plusieurs rapports sur l’impact de ces systèmes: on voit des utilisations incompatibles avec les droits humains. C’est de plus en plus documenté.
Quelles utilisations comportent le plus de risques ?
D’abord la reconnaissance biométrique à distance, sur des critères physiques, biologiques, comportementaux. Un exemple est la reconnaissance faciale mais il y en a d’autres. Il n’y a pas que le visage, il y a la démarche, la voix qui permettent de reconnaître une personne. C’est croisé avec des bases de données pour identifier des gens dans la rue, ou celles qui participent à une manifestation. Elles sont contrôlées, surveillées, identifiées, classées dans des catégories, souvent à leur insu. Ces systèmes-là doivent être interdits, en temps réel mais aussi a posteriori. Un des enjeux est qu’ils soient totalement interdits.
C’est ce que prévoit le texte soumis au vote ?
Le texte initial évoque la surveillance en temps réel uniquement, et avec des dérogations. Il pourrait y avoir un vote séparé pour ce qui est de la surveillance a posteriori. Le texte soumis au vote du Parlement est largement plus protecteur mais il n’est pas encore parfait. Dans le contexte de la migration, par exemple, il y a des manquements. On exige aussi l’interdiction de la notation sociale, le crédit social à la chinoise, pour les acteurs publics mais aussi privés. Et l’interdiction de la police prédictive, qui entend prévenir des comportements criminels avant qu’ils aient lieu. Le Parlement pourrait l’inclure dans les interdictions, sauf dans le cadre des contrôles aux frontières. Il y a aussi l’extraction d’information des réseaux sociaux pour alimenter des bases de données. Cela nous semble les questions les plus problématiques. On estime aussi que les systèmes interdits dans l’Union européenne doivent l’être aussi à l’exportation.
Ces systèmes sont-ils beaucoup produits et utilisés dans l’Union européenne ?
Oui, il y a beaucoup d’entreprises européennes dans ce secteur extrêmement concurrentiel. Et on a plusieurs exemples d’utilisation, aux Pays-Bas, en France pour la police prédictive. Dans beaucoup de pays, l’utilisation se fait de manière expérimentale, sans base juridique, dans la lutte contre le terrorisme, la criminalité. Mais on n’a jamais fourni la preuve de leur efficacité ; c’est même l’inverse. On donne l’impression que c’est inéluctable. Avec la loi sur les JO 2024, la France devient le premier État à légaliser la vidéosurveillance algorithmique, qui pourrait d’ailleurs rentrer en contradiction avec le futur règlement européen.
Ces questions sont fort basées sur la sécurité. Or l’intelligence artificielle pose aussi des défis sociaux: l’emploi humain menacé, la discrimination…
C’est vrai. On a été plus impliqués sur les pratiques dites "à haut risque", mais l’utilisation des algorithmes dans les services publics, notamment l’accès à certaines aides, peut être discriminatoire. Ça fait aussi partie des enjeux très importants, en matière de transparence. On voit combien l’intelligence artificielle échappe à ses créateurs. Se pose aussi la question de l’apprentissage, des intelligences génératives. On touche à beaucoup de défis. L’IA a pénétré tous les espaces de notre quotidien. C’est tentaculaire et c’est pour cela qu’on s’est plutôt concentré sur les pratiques à interdire.
Une prise de conscience globale semble nécessaire.
Oui, cela nous concerne tous. Il faut expliquer que ce qui se joue, c’est l’exercice de nos droits fondamentaux mais aussi notre rapport aux technologies. Il ne s’agit pas de dire qu’on est contre, mais de faire attention à leur utilisation. Quand on franchit une marche, on ne la redescend pas. On ouvre la voie à des technologies toujours plus abusives sans se poser la question: est-ce qu’on en a vraiment besoin ? Il existe un postulat que ces technologies sont efficaces et nécessaires, mais on n’en a jamais obtenu la démonstration. C’est très important de prendre le temps de la réflexion, qu’il y ait ce débat, parce qu’il n’a jusqu’ici pas eu lieu.
Quand on demande à Chat GPT sa propre définition de l’intelligence artificielle, le principal intéressé répond: "L’IA est une branche de l’informatique qui vise à créer des systèmes capables de réaliser des tâches qui accomplissent (sic) normalement une intelligence humaine, comme la perception, la compréhension, la décision, l’apprentissage et la création." L’intelligence, c’est l’aptitude à réaliser des objectifs, à apprendre et à s’adapter à une situation. Et cette intelligence peut-être non biologique. L’IA n’est pas une nouveauté. Cela fait des années qu’elle est présente sur les réseaux sociaux, où elles orientent les publications, dans la recherche médicale ou les logiciels de recrutement. Mais le déploiement de ces outils s’est accéléré avec le succès fulgurant cet hiver de l’interface d’IA générative d’OpenAI, start-up largement financée par Microsoft. Ça a lancé une course à des systèmes toujours plus performants, capables de générer du code, des textes et des images de plus en plus complexes, avec l’ambition, ou le rêve, de résoudre tous les problèmes à venir. L’IA, qui continue à améliorer sans cesse ses processus d’apprentissage, serait capable d’effectuer n’importe quelle tâche de l’être humain, "mais mieux". Avec le risque de générer d’autres problèmes: discrimination selon des critères choisis, automatisation des emplois humains, vol de propriété intellectuelle, désinformation à grande échelle. "Cette technologie remet en question ce que signifie être humain", estime un spécialiste.
L’imagination bridée par des lois contraignantes
Si l’Europe continue à s’interroger sur l’intelligence artificielle – et espère à nouveau montrer la voie avec son "IA Act", comme elle l’avait fait avec la loi sur les données personnelles –, on ne reste pas les bras croisés dans le monde, et notamment de l’autre côté de l’Atlantique. "Le secteur privé a un devoir éthique, moral et légal de s’assurer de la sûreté et de la sécurité de ses produits", a ainsi déclaré récemment la vice-présidente américaine, face aux patrons des grandes entreprises US de l’intelligence artificielle, les Google, Microsoft, OpenAi ou Anthropic. Kamala Harris souligne que si l’IA a le "potentiel d’améliorer le quotidien et de s’attaquer à certains des plus grands défis de la société", elle pourrait aussi "augmenter considérablement les menaces qui pèsent sur la sécurité, rogner sur les droits humains et la confidentialité, et saper la confiance du public dans la démocratie". Avec le président Biden, elle envisage "une nouvelle législation". La Maison-Blanche avait publié fin 2022 un "plan pour une Déclaration des droits sur l’IA", qui énumère des principes généraux tels que la protection contre les systèmes dangereux ou faillibles. Mais ces "lignes directrices" n’obligent pas les sociétés concernées à faire quoi que ce soit. Les géants de l’IA ne nient pas ces risques, mais craignent, eux, que l’innovation technologique ne soit bridée par des lois trop contraignantes.
Les auteurs menacés par "l’antithèse de l’originalité"
À Hollywood, les scénaristes se sont mis en grève. Et pas seulement pour une question de salaire. L’idée qu’une intelligence artificielle puisse piquer leur job attise le conflit avec les studios et services de streaming. "L’art ne peut pas être créé par une machine", fustige Éric Heisserer, le scénariste du film Bird Box, qui a fait un carton sur Netflix. Scénario de science-fiction ? Grâce à leur capacité à singer la conversation humaine, d’imaginer des scripts, de dessiner des héros, de créer des photos ou des vidéos inédites, les programmes d’IA effraient de nombreux secteurs d’activité. Beaucoup de scénaristes sont néanmoins prêts à l’utiliser "dans le cadre de leur processus créatif", ou pour les tâches répétitives, tant que cela n’affecte pas leur rémunération. La Writers Guild of America, le puissant syndicat qui représente 11 500 plumes de l’industrie audiovisuelle, souhaite que toute production issue d’un robot ne puisse pas être considérée comme un matériau "littéraire" ou "source", termes clés qui impliquent le reversement de droits d’auteur. Des exigences rejetées par les studios. Au-delà des scénarios, l’IA pourrait être utilisée pour le montage ou le "story-board" d’un film. L’auteur Ben Ripley estime que l’IA n’a rien à faire dans le processus créatif. Les écrivains "doivent être originaux or l’intelligence artificielle, c’est l’antithèse de l’originalité." Plus de 200 livres écrits par l’IA sont pourtant déjà disponibles sur Amazon. Et Google prévoit de proposer aux annonceurs de créer leurs publicités avec de l’IA générative.