- les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
- les applications à haut risque, comme un outil de balayage de CV qui classe les candidats à l’emploi, sont soumises à des exigences légales spécifiques ;
- les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Les applications interdites
Les applications qui représentent une menace potentielle pour les droits des citoyens et la démocratie, le législateur européen a convenu d’interdire : – les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple: opinions politiques, religieuses, philosophiques, orientation sexuelle, race)); – l’extraction non ciblée d’images faciales sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale – la reconnaissance des émotions sur le lieu de travail et les établissements d’enseignement; – la notation sociale basée sur le comportement social ou les caractéristiques personnelles ; – les systèmes d’IA qui manipulent le comportement humain pour contourner le libre arbitre ; – l’IA utilisée pour exploiter les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).
Exemptions pour les services répressifs
Pour l’utilisation des systèmes d’identification biométrique dans les espaces accessibles au public à des fins répressives, sous réserve d’une autorisation judiciaire préalable et pour des listes d’infractions strictement définies, des garanties et exceptions sont prévues.
Les systèmes d’identification biométrique « à distance » seront utilisés strictement dans le cadre de la recherche ciblée d’une personne condamnée ou soupçonnée d’avoir commis un crime grave. Les systèmes d’identification biométrique « en temps réel » répondront à des conditions strictes et leur utilisation sera limitée dans le temps et dans l’espace : – recherche ciblée de victimes (enlèvement, traite, exploitation sexuelle), – la prévention d’une menace terroriste précise et actuelle, ou – la localisation ou l’identification d’une personne soupçonnée d’avoir commis l’un des crimes spécifiques mentionnés dans le règlement (terrorisme, traite, exploitation sexuelle, meurtre, enlèvement, viol, vol à main armée, participation à une organisation criminelle, crime contre l’environnement).
Des obligations pour les systèmes à haut risque
Pour les systèmes d’IA classés comme présentant un risque élevé, les députés ont réussi à inclure une analyse d’impact obligatoire sur les droits fondamentaux, entre autres exigences, également applicable au secteur bancaire et des assurances.
Des garde-fous pour les systèmes généraux d’intelligence artificielle
Les systèmes mis en place à usage général devront respecter des exigences de transparence. Pour les systèmes d’IA à usage général présentant un risque systémique, il sera nécessaire de respecter des obligations plus strictes.
Des sanctions lourdes
Le non-respect des règles peut entraîner des amendes allant de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires à 35 millions d’euros ou 7 % du chiffre d’affaires mondial, en fonction de l’infraction et de la taille de l’entreprise.
[…] international dans le cadre du GAFI. Un exemple peut être recherché au niveau européen avec la loi IA, une première au niveau mondial, visant à réglementer l’utilisation de […]