ChatGPT : une menace pour les entreprises ?
L’intelligence artificielle et ChatGPT constituent-ils une menace pour les entreprises ? Certaines prennent les devants et mettent en garde leur personnel.
/cloudfront-eu-central-1.images.arcpublishing.com/ipmgroup/74DADWXQHVB3VKFZLD7AEGVYDI.jpg)
- Publié le 30-05-2023 à 07h51
- Mis à jour le 30-05-2023 à 08h01
:focal(545x371.5:555x361.5)/cloudfront-eu-central-1.images.arcpublishing.com/ipmgroup/CKPAVHWKHFAUZMIB4IFWIKLPMQ.jpg)
L’utilisation de ChatGPT inquiète le monde de l’entreprise. Il est désormais de plus en plus courant que les directions mettent en garde leur personnel sur l’utilisation de l’application d’intelligence artificielle.
Par exemple, dans une société active dans l’agroalimentaire en Wallonie, on redoute la fuite de secrets industriels ou de données si le personnel venait à intégrer des données sensibles dans l’application. Un mail a ainsi été adressé au personnel.
Au sein d’une importante société informatique liégeoise, on met aussi en garde. Les risques connus: interdiction de fournir des données personnelles, des informations classifiées et confidentielles ainsi que des codes informatiques produits par la société. En cas de questionnement de ChatGPT, les réponses doivent être validées et contrôlées par un collaborateur. Et il n’y a pas que la fuite de données qui inquiète, ce sont aussi les réponses fournies par l’application. "Le code produit par ChatGPT peut contenir des vulnérabilités, des codes malveillants ou des logiciels espions", nous explique un collaborateur. Les réponses produites par ChatGPT pourraient aussi s’avérer erronées ou dépassées.
"Il y a plusieurs risques dans les entreprises, confirme Axel Legay, professeur à l’UC Louvain et spécialiste en cybersécurité. Certains jobs pourraient être remplacés par ChatGPT et d’autres voudraient l’utiliser pour se simplifier la vie. Mais ces deux tendances ont un problème: c’est qu’on ne connaît pas les limites de cette intelligence artificielle."
Le spécialiste confirme qu’il y a "des risques de réponse erronée, des problèmes de fiabilité. Mon principal conseil, c’est de garder le libre arbitre et de ne pas considérer ces informations pour acquises. Cela peut être une aide mais pas remplacer quelqu’un. "
Il rappelle aussi que l’être humain n’est pas à l’abri d’une erreur. "L’intelligence artificielle rentre dans un nouveau type d’algorithme. Elle va jouer et deviner ce que vous voulez qu’elle indique. Il peut donc y avoir des erreurs et ce n’est pas évident de pouvoir les expliquer."
Ces sites belges utilisent ChatGPT pour écrire à leur place mais laissent un indice grossier : faux avis, offre d’emploi…Plagiat, fuite de données…
Au cours d’une production de contenu, l’intelligence artificielle va aller puiser dans un registre gigantesque de données. "Et elle ne cite pas toujours ses sources. C’est un risque pour les entreprises qui pourraient être poursuivies pour plagiat."
C’est aussi le niveau de sécurité de l’entreprise qui peut être compromis. L’intelligence artificielle peut fournir des réponses orientées et suggérées. "Elle pourrait, par exemple, vous suggérer d’acheter du matériel chinois. " Et risquer ainsi d’affaiblir sa protection cyber.
Axel Legay préconise ainsi que les entreprises considèrent ChatGPT "vraiment comme une aide. D’ailleurs, un informaticien n’aime pas que la machine remplace l’homme. Pour les entreprises et les universités, cela va être dur d’interdire ces applications. La meilleure chose à faire, c’est de la prévention. Il faut trouver un bon compromis."
Au sein de la FEB, la Fédération des entreprises de Belgique, on ne s’est pas encore positionné sur cette question: "Ce sont les entreprises qui décident ce qu’elles font."
Les dangers des outils grand public d’intelligence artificielle (IA) en 2023 : hallucinations, amplification, désinformation…