Le règlement sur l'intelligence artificielle (IA Act) : obligations et risques

Sonia Cissé

Introduction

Sonia Cissé, avocate spécialisée en technologie, protection des données et cybersécurité chez Linklaters à Paris, aborde dans cette vidéo Uplawder les implications du nouveau règlement sur l'intelligence artificielle (IA) et explique les obligations des entreprises selon le niveau de risque associé à leur utilisation de l'IA.

Contenu de l'interview :

Qu’est-ce que le Règlement sur l’Intelligence Artificielle ?

Le règlement sur l'intelligence artificielle (IA) est l'une des premières législations consolidées visant à réguler l'utilisation de l'IA en Europe. Ce texte fait partie du "paquet digital" de la Commission européenne, qui vise à encadrer l'espace numérique. Son objectif principal est de garantir une IA sécurisée pour les consommateurs de l'Union européenne tout en stimulant l'innovation dans ce secteur.

Quand rentre-t-il en application ?

Après plusieurs années de débats, le règlement sur l'IA a été publié au Journal officiel de l'UE le 21 mai dernier. Ce règlement adopte une approche graduée avec des obligations spécifiques pour différents niveaux de risque. Par exemple, les systèmes d'IA jugés "inadmissibles" seront interdits dès novembre 2024, tandis que d'autres obligations s'étendront jusqu'à 2026.

À qui s’applique-t-il ?

Ce règlement concerne toutes les entreprises impliquées dans l'utilisation, la fabrication ou la distribution de systèmes d'IA, indépendamment de leur localisation géographique. Par exemple, une société américaine commercialisant de l'IA en Europe ou une entreprise pharmaceutique intégrant l'IA dans ses processus de mise sur le marché sera soumise à ce règlement.

On a beaucoup parlé de l’approche par risques. Qu’est-ce que cela veut dire ?

L'originalité de ce règlement réside dans son approche basée sur le risque. Les systèmes d'IA sont classifiés selon leur niveau de risque : inadmissible, à haut risque et à risque minimal. Chaque catégorie implique des obligations spécifiques en matière de transparence, de documentation de conformité et d'information à l'utilisateur.

Les IA à usage général et systémique

Avec l'émergence des modèles d'IA générative comme ChatGPT, deux nouvelles catégories de risque ont été ajoutées : les IA à usage général et les IA à usage général à risque systémique.

Les premières entraînent des obligations modérées, tandis que les secondes, en raison de leur impact potentiel, nécessitent des mesures plus strictes, telles que le marquage CE et la documentation de conformité.

👉 Quels conseils pratiques pour les entreprises qui souhaitent se conformer au règlement sur l’Intelligence Artificielle ?

Sonia Cissé conseille les entreprises de se poser quatre questions :

  1. Est-ce que le système d'IA utilisé est capturé par la définition (IA) du règlement ?
  2. Quelles seront les obligations selon le niveau de risque de l'IA utilisée ?
  3. Quel est le rôle de l'entreprise : déployeur, fabricant ou distributeur ?
  4. Quel est le champ d'application de l'IA par rapport au système en place ?

"La meilleure façon de déterminer si vous êtes tenu de respecter le règlement sur l'intelligence artificielle est de vérifier si le système d'IA que vous utilisez est capturé par la définition du texte européen."

Sonia Cissé dirige l'équipe Technologie, Commercial et Confidentialité chez Linklaters à Paris. Son expertise couvre l'ensemble du droit des technologies et de la confidentialité, avec un accent particulier sur la protection des données, la cybersécurité, les accords commerciaux complexes, le commerce électronique et les télécommunications. Elle a conseillé des entreprises de premier plan dans divers secteurs sur des initiatives internationales de protection des données, y compris la conformité au RGPD et des achats complexes.

https://www.linklaters.com/fr-fr/find-a-lawyer/sonia-cisse

Voir plus d'interviews