Intelligence artificielle
Le cadre juridique européen
L’intelligence artificielle (IA) désigne un ensemble de technologies permettant à des systèmes informatiques de réaliser des tâches qui nécessitent normalement l’intelligence humaine. Ces tâches incluent l’apprentissage, le raisonnement, la perception visuelle et auditive, la prise de décision, et la résolution de problèmes. Une des évolutions majeures de l’informatique a été l’intégration de connaissances et de capacités de raisonnement dans divers appareils, processus et services, marquant la « révolution numérique ». L’IA, souvent évoquée dans ce contexte, est toutefois mieux décrite comme une « prise de décision automatisée » selon la résolution de l’Union européenne du 20 octobre 2020. En effet, les systèmes d’IA ne possèdent pas une intelligence réelle mais sont conçus pour effectuer des choix de manière autonome en suivant des algorithmes et des données préalablement définies par leurs créateurs.
Quels sont les principaux textes législatifs européens concernant l'intelligence artificielle ?
Le Règlement Général sur la Protection des Données (RGPD) : Il encadre la collecte et le traitement des données personnelles, essentielles pour le développement de l’IA.
Le projet de règlement sur l’intelligence artificielle (AI Act) : Adopté le 13 mars 2024, il vise à établir des normes harmonisées pour l’IA à travers l’UE, en mettant l’accent sur la sécurité, la transparence, la responsabilité et les droits fondamentaux.
La Directive sur la sécurité des réseaux et des systèmes d’information (NIS2) : Elle s’applique aux infrastructures critiques, incluant certains systèmes d’IA, pour améliorer la cybersécurité.
Le cadre européen pour une IA digne de confiance : Publié par le groupe d’experts de haut niveau sur l’IA, ce cadre propose des lignes directrices éthiques pour le développement et l’utilisation de l’IA.
Le texte législatif européen sur l’intelligence artificielle (AI Act) adopte une approche basée sur les risques, axée non pas sur la technologie elle-même, mais sur ses effets potentiels. Il classe les systèmes d’IA en différentes catégories de risques :
Risques inacceptables : Ces IA sont interdites, car elles peuvent manipuler ou exploiter les vulnérabilités des individus, les catégoriser sur des bases comportementales ou émotionnelles, ou inclure des systèmes d’identification biométrique à distance en temps réel dans des espaces publics.
Haut risque : Les IA utilisées dans des secteurs sensibles (éducation, emploi, infrastructures critiques, services publics, sécurité, justice) doivent respecter des obligations strictes (transparence, gestion des risques, prévention des biais, contrôle humain, analyse d’impact). Les violations peuvent entraîner des sanctions sévères, jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires.
Risque limité et minimal : Les systèmes à risque limité doivent répondre à des exigences de transparence spécifiques, tandis que ceux à risque minimal sont encouragés à adopter des codes de conduite volontaires.
Pour répondre aux défis spécifiques de l’IA générative (L’intelligence artificielle générative opère en se basant sur des modèles d’apprentissage automatique (modèle Machine Learning) afin de générer du contenu de façon autonome (ex : Dall-E)).
Le texte intègre un régime pour les modèles d’IA à usage général, inspiré du Digital Services Act (DSA) (Le Digital Services Act (DSA) est un règlement européen qui s’applique à toutes les entreprises qui offrent des services dits « intermédiaires » aux internautes européens, qu’ils soient basés dans ou hors de l’UE.).
Ces modèles, entraînés sur de larges ensembles de données, présentent des risques systémiques significatifs (désinformation, violation des droits d’auteur, création de faux contenus). Le texte impose des obligations de transparence et de conformité aux fournisseurs de ces modèles.
La mise en œuvre de l’AI Act repose sur un système de corégulation complexe :
National : Chaque État membre doit désigner des autorités compétentes pour évaluer la conformité et surveiller le marché des IA à haut risque.
Européen : Le Bureau européen de l’IA, au sein de la Commission, et le Comité européen de l’intelligence artificielle, composé de représentants des États membres et d’experts, assureront l’harmonisation et la coordination.
La réussite de cette législation dépendra des ressources allouées aux autorités et de l’engagement des entreprises.
Que risque les entreprises en cas de non-respect de ces législations ?
L’Union européenne met en place des sanctions significatives pour les violations des régulations de l’IA afin de garantir la conformité et dissuader les comportements irresponsables.
Amendes Financières
Maximum de 35 Millions d’Euros : Les entreprises contrevenantes peuvent être condamnées à des amendes pouvant aller jusqu’à 35 millions d’euros.
7 % du Chiffre d’Affaires Annuel Mondial : Les amendes peuvent représenter jusqu’à 7 % du chiffre d’affaires annuel mondial de l’entreprise, selon le montant le plus élevé.
Gravité de la Violation : Les amendes sont proportionnées à la gravité de la violation, tenant compte de la nature, de la durée et de l’impact des infractions.
Récidive et Coopération : Le montant peut être influencé par la récidive et le degré de coopération de l’entreprise avec les autorités de régulation.
Capacité Financière de l’Entreprise : Les amendes sont également ajustées en fonction de la taille et de la capacité financière de l’entreprise pour éviter des sanctions disproportionnées.
Mesures de Conformité
Les entreprises doivent fournir des informations claires et accessibles sur le fonctionnement et les limites de leurs systèmes d’IA, y compris les algorithmes et les décisions prises par ceux-ci.
Contrôles Réguliers : Les autorités compétentes effectueront des contrôles réguliers et des audits des systèmes d’IA pour assurer la conformité continue avec les régulations.
Accès aux Données : Les entreprises doivent garantir un accès aux données et aux systèmes nécessaires pour permettre une évaluation complète par les autorités.
Plans de Correction : Les entreprises trouvées en violation des régulations doivent présenter et mettre en œuvre des plans de correction pour remédier aux problèmes identifiés.
Suspension ou Interdiction : En cas de non-conformité persistante, les autorités peuvent suspendre ou interdire l’utilisation des systèmes d’IA concernés.
Incitations à la Conformité
Les entreprises qui adoptent des mesures proactives pour assurer la conformité et collaborer pleinement avec les autorités peuvent bénéficier de réductions d’amendes.
Les entreprises qui démontrent un engagement exemplaire envers les meilleures pratiques en matière d’IA peuvent être publiquement reconnues, ce qui améliore leur réputation et leur position sur le marché.
Aîdara DIENG
Solucia SPJ