ChatGPT
intelligence artificielle

Au moment où un débat mondial est en cours pour dégager une responsabilité partagée en matière d’utilisation de l’Intelligence artificielle (IA) et surtout pour s’entendre sur la meilleure façon de gérer les risques de cette nouvelle technologie, la loi européenne sur l’IA vient d’entrer en vigueur (1er août 2024).

Elle sera pleinement applicable 2 ans plus tard (2026). A quelques exceptions près : les interdictions entreront en vigueur après six mois, les règles de gouvernance et les obligations relatives aux modèles d’IA à usage général deviendront applicables après 12 mois et les règles relatives aux systèmes d’IA – intégrés dans des produits réglementés – s’appliqueront après 36 mois.

Cette législation européenne sur l’IA est le tout premier cadre juridique sur l’IA, qui traite des risques liés à l’IA et positionne l’Europe à jouer un rôle de premier plan au niveau mondial.

La Tunisie en tant que pays associé de l’Union européenne est concernée par cette nouvelle réglementation de l’IA. Elle pourrait s’inspirer de la nouvelle loi européenne pour élaborer sa propre législation devant régir le développement de l’IA. En voici l’essentiel.

La nouvelle réglementation établit des règles harmonisées en matière d’IA,  fournit aux développeurs et aux déployeurs d’IA des exigences et des obligations claires en ce qui concerne les utilisations spécifiques de l’IA.

“La loi européenne sur l’IA est une première mondiale en matière de réglementation de l’intelligence artificielle.”

La législation sur l’IA fait partie d’un ensemble plus large de mesures visant à soutenir le développement d’une IA « digne de confiance », qui comprend également un train de mesures visant à renforcer l’adoption, l’investissement et l’innovation dans l’IA dans les pays de l’UE. Ensemble, ces mesures garantissent la sécurité et les droits fondamentaux des personnes et des entreprises en matière d’IA.

La législation sur l’IA est le tout premier cadre juridique complet sur l’IA dans le monde.

L’objectif des nouvelles règles est de favoriser une IA digne de confiance en Europe et au-delà, en veillant à ce que les systèmes d’IA respectent les droits fondamentaux, la sécurité et les principes éthiques en s’attaquant aux risques liés aux modèles d’IA.

“La Tunisie a tout intérêt à s’inspirer de la réglementation européenne pour développer son propre cadre en matière d’IA.”

S’agissant justement des risques, la nouvelle législation établit des garde-fous et règles spécifiques pour chaque niveau de risque. Deux types de risques méritent qu’on s’y attarde.

Risque inacceptable

Les systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Ils comprennent la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques : par exemple, des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants.

  • Un score social : classer les personnes en fonction de leur comportement, de leur statut socio-économique, de leurs caractéristiques personnelles
  • Une catégorisation et une identification biométriques des personnes
  • Des systèmes d’identification biométrique en temps réel et à distance, tels que la reconnaissance faciale
  • Certaines exceptions peuvent être autorisées à des fins d’application de la loi.
  • Les systèmes d’identification biométrique à distance « en temps réel » seront autorisés dans un nombre limité de cas graves, tandis que les systèmes d’identification biométrique à distance à postériori, où l’identification a lieu après un délai important, seront autorisés dans des cas de crimes graves et seulement après l’approbation du tribunal.

Risque élevé

Il s’agit des systèmes d’IA qui sont utilisés dans les produits relevant de la législation de l’UE sur la sécurité des produits. Cela comprend les jouets , l’aviation, les voitures, les dispositifs médicaux et les ascenseurs.

Les systèmes d’IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l’UE :

  • La gestion et l’exploitation des infrastructures critiques
  • L’éducation et la formation professionnelle
  • L’emploi, la gestion des travailleurs et l’accès au travail indépendant
  • L’accès et la jouissance des services privés essentiels et des services et avantages publics
  • Les forces de l’ordre
  • La gestion de la migration, de l’asile et du contrôle des frontières
  • L’aide à l’interprétation juridique et à l’application de la loi

Globalement, la nouvelle législation nous apprend que tous les systèmes d’IA à haut risque seront évalués avant leur mise sur le marché et tout au long de leur cycle de vie. Les citoyens auront le droit de déposer des plaintes concernant les systèmes d’IA auprès des autorités nationales désignées.

ABOU SARRA