L’Intelligence Artificielle (IA) est une technologie exponentielle qui ne cesse de démontrer des résultats impressionnants dans plusieurs secteurs.
L’IA est un outil performant et puissant exploité massivement par les entreprises pour des besoins d’amélioration du « Time to Market », l’optimisation de la production ainsi que l’augmentation de la profitabilité. Les usages sont illimités au vu des spécialisations et la vérité des métiers dans les secteurs.
Nous pouvons évoquer une multitude de cas d’usages rien qu’en zoomant dans l’univers Marketing telle la campagne d’emailing, les modèles de scoring des clients, l’analyse de l’appétence des clients pour tel ou tel produit ou service, les modèles de cross selling et up selling pour améliorer les chiffres de vente, etc.
Dans un registre sociétal, l’intelligence artificielle est en train de profiter amplement de son âge d’OR tant attendu. IA est pratiquement partout depuis nos smartphones jusqu’à nos comportements sur les réseaux sociaux.
L’Intelligence Artificielle est certainement la technologie qui nous crée aujourd’hui le plus de zones de conforts, mais est-elle sans risques ?
Doit-on jouir de l’âge d’OR de l’Intelligence Artificielle sans pour autant se préoccuper de ses risques ?
Aucun expert d’IA à l’échelle international ne peut confirmer que celle-ci est sans risques. Bien au contraire, ce sont eux les premiers lanceurs d’alertes.
Laurence DEVILLERS, professeure en Intelligence Artificielle au LIMSI-CNRS, met en garde, lors de l’une de ces keynotes à la fondation Maif, contre les dangers de la dépendance aux objets dotés d’intelligence artificielle et l’isolement qui pourrait en résulter.
Elle souligne le besoin d’un cadre législatif et d’une grande transparence pour contrer le fait que nous serons de plus en plus sur écoute, de plus en plus surveillés.
Elon Musk a réitéré, dans un tweet, datant de décembre 2022, ses alertes en précisant : « il n’y a pas de surveillance réglementaire de l’IA, ce qui est un problème majeur. Je réclame une réglementation de la sécurité de l’IA depuis plus d’une décennie ! ».
Dans un récent épisode du Podcast « Radio Davos » par le World Economic Forum, Stuart Russell, professeur d’informatique à l’université de Berkeley en Californie et chercheur en Intelligence artificielle, a précisé que les algorithmes d’IA sont en train de manipuler les gens et les amener à changer en leur envoyant des contenus.
Professeur Russel a appelé à repenser les méthodes de conception et d’utilisation de ces algorithmes afin d’éviter les impacts négatifs de cette technologie.
Sam Altman, PDG de Open AI (créateur de Chatgpt), a exprimé récemment dans une interview pour ABC News ses préoccupations concernant l’IA en ajoutant: « je suis particulièrement inquiet que ces modèles puissent être utilisés pour la désinformation à grande échelle ». Il met en garde contre les conséquences potentiellement dangereuses de cette technologie et souligne la nécessité d’une régulation adéquate pour minimiser les risques.
Depuis 2020, 78% des Américains et 87% des Européens ont réclamé une réglementation de l’Intelligence artificielle
Plusieurs experts de renommés ont pu s’exprimer amplement sur les risques de l’intelligence artificielle dans le podcast « The AI Deal of Trust » publié par le collectif international non-profit « AI Exponential Thinker ».
Parmi ces experts, Kay Firth-Butterfield, patronne exécutive de l’Intelligence artificielle du World Economic Forum, mais aussi Anima Anand Kumar, chercheuse de renommée et directrice de laboratoire de recherche en IA pour NVIDIA.
Plus récemment, Kay Firth-Butterfield a explicité, dans une conférence, que l’intelligence artificielle responsable commence à être difficile à créer dans le contexte des IA générative à l’image de Chatgpt, Mi-journée et autres.
Elle a ajouté que depuis 2020, 78% des Américains et 87% des Européens ont réclamé une réglementation de l’intelligence artificielle parce qu’ils pensent fortement que les entreprises utilisant l’IA pour manipuler les décisions des consommateurs. Anima Anand Kumar a exprimé l’importance de réguler l’intelligence artificielle pour éviter tout biais, discrimination ou tout autre impact d’injustice et d’inégalité.
Quand on écoute les citoyens, nous relevons quelques chiffres qui montrent une inquiétude de cette technologie sans pour autant comprendre les risques de cette dernière. Si nous prenons les réseaux sociaux comme contexte d’analyse, nous notons que plusieurs pensent qu’ils sont maitres de leurs interactions mais ceci n’est que Mythe.
Quel que soit le réseau social (Facebook (Meta), Instagram, Tiktok, etc.), l’IA est utilisée pour analyser vos propos mais aussi créer l’effet appelé en anglais « The Bubble » qui vous induit à réagir et partager massivement certaines publications plus que d’autres.
Pour ceux qui n’ont pas encore eu le privilège de regarder le documentaire Netflix intitulé « The social Dilemma », je vous invite à le regarder avec vos enfants. Ce documentaire explique très bien les procédés de manipulation qui vous incitent à être tout le temps connecté à ces réseaux, de vouloir interagir mais aussi de ressentir une inquiétude voire une anxiété face à une absence de retour sur vos publications ou commentaires. Dans une récente source dévoilant des statistiques d’IA en 2023, on note que 7 consommateurs sur 10 possèdent quelques craintes sur l’IA et 88% demandent la transparence des entreprises utilisant les robots dirigés par IA.
L’Intelligence artificielle doit être contrôlée !
Aujourd’hui, plus que jamais, l’Intelligence artificielle doit être contrôlée à plusieurs niveaux tant sur le développement de cette technologie qui doit être éthique et responsable que sur la nature des usages de celle-ci. Nous ne pouvons pas continuer de croire que tous ceux qui vont la développer, l’utiliser ou la commercialiser soient éthiques sans être contrôlée et sanctionner si besoin. Dans un contexte plus pragmatique, plusieurs instituts ont commencé à développer des Framework d’audits, des best practices de développement, un modèle de gouvernance pour s’assurer du développement d’une IA Responsable.
Depuis quelques jours, L’institut « Future of life Institute » a publié une lettre ouverte qui demande une pause de 6 mois de développement des IA génératives puissantes à l’image de GPT4. Cette lettre été signé par plus que 1300 experts IA comme Yoshua Benjio, Elon Musk, Stuart Russel.
Sans régulateur pour l’intelligence artificielle ni modèles de sanctions face aux nombreux risques de discrimination, de biais, de manipulation de l’opinion publique, d’usure d’identité et de malaise sociale pour les jeunes générations, nous avons besoin de développer les canaux d’éducations pour les citoyens à tout âge. Il est important que la société civile soit consciente des bienfaits et des risques de l’intelligence artificielle afin de pouvoir en tirer bénéfices tout en se protégeant. L’éducation et la création de vigilance concernant l’intelligence artificielle responsable doivent être une de nos priorités dans les prochaines années.