Europol, agence européenne de police criminelle, vient d’alerter, dans un rapport, contre les possibles usages malveillants de ChatGPT, un modèle de langage de pointe basé sur l’Intelligence artificielle (IA), développé par OpenAI et rendu public en novembre 2022.
Dans un premier rapport intitulé “ChatGPT: l’impact des grands modèles linguistiques sur l’application de la loi”, Europol a identifié trois menaces potentielles de ces types de systèmes d’IA et leurs possibles usages par des criminels.
Il s’agit de la fraude et ingénierie sociale, la désinformation et le cybercrime. Selon l’organisme européen, l’intelligence artificielle “peut être exploitée à grande échelle pour tromper les victimes potentielles et les inciter à faire confiance à des acteurs criminels”. Elle est également “une ressource inestimable pour produire des codes malveillants, soit un cadeau tombé du ciel pour un criminel potentiel ayant peu de connaissances techniques”.
En effet, la capacité de ChatGPT à reproduire des modèles de langage peut être utilisée pour imiter le style de discours d’individus ou de groupes spécifiques. “Cette capacité peut être exploitée à grande échelle pour inciter les victimes potentielles à placer leur confiance en des acteurs criminels”.
En ce qui concerne la désinformation, ChatGPT, qui produit des textes authentiques dans un temps très court, pourrait être exploité à des fins de propagande et de désinformation. Il permet aux utilisateurs de générer et de diffuser des messages reflétant un récit spécifique avec relativement peu d’effort.
Pour la cybercriminalité, Europol estime que ce modèle d’IA est capable de produire du code dans un certain nombre de langages de programmation différents. “Pour un criminel potentiel avec peu de connaissances techniques, il s’agit d’une ressource inestimable pour produire du code malveillant”.
A travers son rapport, l’organisme européen veut sensibiliser à l’utilisation abusive potentielle des LLM (Large Language Modeles), ouvrir un dialogue avec les entreprises d’intelligence artificielle (IA) pour les aider à mettre en place de meilleures garanties et promouvoir le développement de systèmes d’IA sûrs et fiables.
D’ailleurs, l’Italie a pris une mesure drastique et devient le premier pays à annoncer l’interdiction du robot conversationnel d’OpenAI dans tout le pays. Selon le gouvernement italien, ChatGPT ne respecte pas la législation sur les données personnelles. En plus, l’outil, qui est accessible à partir de 13 ans, ne propose aucun moyen de vérification de l’âge de ses utilisateurs.
Il y a lieu de rappeler qu’un grand modèle de langage est un type de système d’IA qui peut traiter, manipuler et générer du texte. Pour produire ce modèle, il faut fournir de grandes quantités de données, telles que des livres, des articles et des sites Web, afin qu’il (le modèle) puisse apprendre les connexions entre les mots et générer de nouveaux contenus.