ANNEXE III

Systèmes d'IA à haut risque visés à l'article 6, paragraphe 2

Les systèmes d’IA à haut risque au sens de l’article 6, paragraphe 2, sont les systèmes d’IA répertoriés dans l’un des domaines suivants:

1.

Biométrie, dans la mesure où leur utilisation est autorisée par le droit de l’Union ou le droit national applicable:

a)

systèmes d’identification biométrique à distance.

Cela n’inclut pas les systèmes d’IA destinés à être utilisés à des fins de vérification biométrique dont la seule finalité est de confirmer qu’une personne physique spécifique est la personne qu’elle prétend être;

b)

systèmes d’IA destinés à être utilisés à des fins de catégorisation biométrique, en fonction d’attributs ou de caractéristiques sensibles ou protégés, sur la base de la déduction de ces attributs ou de ces caractéristiques;

c)

systèmes d’IA destinés à être utilisés pour la reconnaissance des émotions.

2.

Infrastructures critiques: systèmes d’IA destinés à être utilisés en tant que composants de sécurité dans la gestion et l’exploitation d’infrastructures numériques critiques, du trafic routier ou de la fourniture d’eau, de gaz, de chauffage ou d’électricité.

3.

Éducation et formation professionnelle:

a)

systèmes d’IA destinés à être utilisés pour déterminer l’accès, l’admission ou l’affectation de personnes physiques à des établissements d’enseignement et de formation professionnelle, à tous les niveaux;

b)

systèmes d’IA destinés à être utilisés pour évaluer les acquis d’apprentissage, y compris lorsque ceux-ci sont utilisés pour orienter le processus d’apprentissage de personnes physiques dans les établissements d’enseignement et de formation professionnelle, à tous les niveaux;

c)

systèmes d’IA destinés à être utilisés pour évaluer le niveau d’enseignement approprié qu’une personne recevra ou sera en mesure d’atteindre, dans le contexte ou au sein d’établissements d’enseignement et de formation professionnelle à tous les niveaux;

d)

systèmes d’IA destinés à être utilisés pour surveiller et détecter des comportements interdits chez les étudiants lors d’examens dans le contexte d’établissements d’enseignement et de formation ou en leur sein à tous les niveaux;

4.

Emploi, gestion de la main-d’œuvre et accès à l’emploi indépendant:

a)

systèmes d’IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, en particulier pour publier des offres d’emploi ciblées, analyser et filtrer les candidatures et évaluer les candidats;

b)

systèmes d’IA destinés à être utilisés pour prendre des décisions influant sur les conditions des relations professionnelles, la promotion ou le licenciement dans le cadre de relations professionnelles contractuelles, pour attribuer des tâches sur la base du comportement individuel, de traits de personnalité ou de caractéristiques personnelles ou pour suivre et évaluer les performances et le comportement de personnes dans le cadre de telles relations.

5.

Accès et droit aux services privés essentiels et aux services publics et prestations sociales essentiels:

a)

systèmes d’IA destinés à être utilisés par les autorités publiques ou en leur nom pour évaluer l’éligibilité des personnes physiques aux prestations et services d’aide sociale essentiels, y compris les services de soins de santé, ainsi que pour octroyer, réduire, révoquer ou récupérer ces prestations et services;

b)

systèmes d’IA destinés à être utilisés pour évaluer la solvabilité des personnes physiques ou pour établir leur note de crédit, à l’exception des systèmes d’IA utilisés à des fins de détection de fraudes financières;

c)

systèmes d’IA destinés à être utilisés pour l’évaluation des risques et la tarification en ce qui concerne les personnes physiques en matière d’assurance-vie et d’assurance maladie;

d)

systèmes d’IA destinés à évaluer et hiérarchiser les appels d’urgence émanant de personnes physiques ou à être utilisés pour envoyer ou établir des priorités dans l’envoi des services d’intervention d’urgence, y compris par la police, les pompiers et l’assistance médicale, ainsi que pour les systèmes de tri des patients admis dans les services de santé d’urgence.

6.

Répression, dans la mesure où leur utilisation est autorisée par le droit de l’Union ou le droit national applicable:

a)

systèmes d’IA destinés à être utilisés par les autorités répressives ou par les institutions, organes et organismes de l’Union, ou en leur nom, en soutien aux autorités répressives ou en leur nom pour évaluer le risque qu’une personne physique devienne la victime d’infractions pénales;

b)

systèmes d’IA destinés à être utilisés par les autorités répressives ou par les institutions, organes et organismes de l’Union, ou en leur nom, en soutien aux autorités répressives, en tant que polygraphes ou outils similaires;

c)

systèmes d’IA destinés à être utilisés par les autorités répressives ou par les institutions, organes et organismes de l’Union, ou en leur nom, en soutien aux autorités répressives pour évaluer la fiabilité des preuves au cours d’enquêtes ou de poursuites pénales;

d)

systèmes d’IA destinés à être utilisés par les autorités répressives ou par les institutions, organes et organismes de l’Union, ou en leur nom, en soutien aux autorités répressives pour évaluer le risque qu’une personne physique commette une infraction ou récidive, sans se fonder uniquement sur le profilage des personnes physiques visé à l’article 3, paragraphe 4, de la directive (UE) 2016/680, ou pour évaluer les traits de personnalité, les caractéristiques ou les antécédents judiciaires de personnes physiques ou de groupes;

e)

systèmes d’IA destinés à être utilisés par les autorités répressives ou par les institutions, organes et organismes de l’Union, ou en leur nom, en soutien aux autorités répressives pour le profilage de personnes physiques visé à l’article 3, paragraphe 4, de la directive (UE) 2016/680 dans le cadre de la détection d’infractions pénales, d’enquêtes ou de poursuites en la matière ou de l’exécution de sanctions pénales.

7.

Migration, asile et gestion des contrôles aux frontières, dans la mesure où leur utilisation est autorisée par le droit de l’Union ou le droit national applicable:

a)

systèmes d’IA destinés à être utilisés par les autorités publiques compétentes ou par les institutions, organes ou organismes de l’Union, ou en leur nom, en tant que polygraphes et outils similaires;

b)

systèmes d’IA destinés à être utilisés par les autorités publiques compétentes ou par les institutions, organes ou organismes de l’Union, ou en leur nom, pour évaluer un risque, y compris un risque pour la sécurité, un risque de migration irrégulière ou un risque pour la santé, posé par une personne physique qui a l’intention d’entrer ou qui est entrée sur le territoire d’un État membre;

c)

systèmes d’IA destinés à être utilisés par les autorités publiques compétentes ou par les institutions, organes ou organismes de l’Union, ou en leur nom, pour aider les autorités publiques compétentes à procéder à l’examen des demandes d’asile, de visas et de titres de séjour et des plaintes connexes au regard de l’objectif visant à établir l’éligibilité des personnes physiques demandant un statut, y compris les évaluations connexes de la fiabilité des éléments de preuve;

d)

systèmes d’IA destinés à être utilisés par les autorités publiques compétentes ou par les institutions, organes ou organismes de l’Union, ou en leur nom, dans le cadre de la migration, de l’asile et de la gestion des contrôles aux frontières, aux fins de la détection, de la reconnaissance ou de l’identification des personnes physiques, à l’exception de la vérification des documents de voyage.

8.

Administration de la justice et processus démocratiques:

a)

systèmes d’IA destinés à être utilisés par les autorités judiciaires ou en leur nom, pour les aider à rechercher et à interpréter les faits ou la loi, et à appliquer la loi à un ensemble concret de faits, ou à être utilisés de manière similaire lors du règlement extrajudiciaire d’un litige;

b)

systèmes d’IA destinés à être utilisés pour influencer le résultat d’une élection ou d’un référendum ou le comportement électoral de personnes physiques dans l’exercice de leur vote lors d’élections ou de référendums. Sont exclus les systèmes d’IA aux sorties desquels les personnes physiques ne sont pas directement exposées, tels que les outils utilisés pour organiser, optimiser ou structurer les campagnes politiques sous l’angle administratif ou logistique.

Maîtrise de l’IA

Book Demo

We will get back to you via email as soon as possible.