Article 7

Modifications de l’annexe III

1.   La Commission est habilitée à adopter des actes délégués conformément à l’article 97 pour modifier l’annexe III en y ajoutant des cas d’utilisation de systèmes d’IA à haut risque, ou en les modifiant, lorsque les deux conditions suivantes sont remplies:

a)

les systèmes d’IA sont destinés à être utilisés dans l’un des domaines énumérés à l’annexe III;

b)

les systèmes d’IA présentent un risque de préjudice pour la santé et la sécurité, ou un risque d’incidence négative sur les droits fondamentaux, et ce risque est équivalent ou supérieur au risque de préjudice ou d’incidence négative que présentent les systèmes d’IA à haut risque déjà visés à l’annexe III.

2.   Lorsqu’elle évalue les conditions visées au paragraphe 1, point b), la Commission tient compte des critères suivants:

a)

la destination du système d’IA;

b)

la mesure dans laquelle un système d’IA a été utilisé ou est susceptible de l’être;

c)

la nature et la quantité des données traitées et utilisées par le système d’IA, en particulier le traitement ou l’absence de traitement des catégories particulières de données à caractère personnel;

d)

la mesure dans laquelle le système d’IA agit de manière autonome et la mesure dans laquelle l’homme peut intervenir pour annuler une décision ou des recommandations susceptibles de causer un préjudice potentiel;

e)

la mesure dans laquelle l’utilisation d’un système d’IA a déjà causé un préjudice à la santé et à la sécurité, a eu une incidence négative sur les droits fondamentaux ou a suscité de graves préoccupations quant à la probabilité de ce préjudice ou de cette incidence négative, tel que cela ressort, par exemple, des rapports ou allégations documentées soumis aux autorités nationales compétentes ou d’autres rapports, le cas échéant;

f)

l’ampleur potentielle d’un tel préjudice ou d’une telle incidence négative, notamment en ce qui concerne son intensité et sa capacité d’affecter plusieurs personnes ou d’affecter un groupe particulier de personnes de manière disproportionnée;

g)

la mesure dans laquelle les personnes ayant potentiellement subi un préjudice ou une incidence négative dépendent des résultats obtenus au moyen d’un système d’IA, notamment parce qu’il n’est pas raisonnablement possible, pour des raisons pratiques ou juridiques, de s’affranchir de ces résultats;

h)

la mesure dans laquelle il existe un déséquilibre de pouvoir, ou les personnes ayant potentiellement subi un préjudice ou une incidence négative se trouvent dans une situation vulnérable par rapport au déployeur d’un système d’IA, notamment en raison du statut, de l’autorité, de connaissances, de circonstances économiques ou sociales ou de l’âge;

i)

la mesure dans laquelle les résultats obtenus en utilisant un système d’IA sont facilement corrigibles ou réversibles, compte tenu des solutions techniques disponibles pour les corriger ou les inverser, les résultats qui ont une incidence négative sur la santé, la sécurité ou les droits fondamentaux ne devant pas être considérés comme facilement corrigibles ou réversibles;

j)

la probabilité que le déploiement du système d’IA présente des avantages pour certaines personnes, certains groupes de personnes ou la société dans son ensemble et la portée de ces avantages, y compris les améliorations éventuelles quant à la sécurité des produits;

k)

la mesure dans laquelle le droit existant de l’Union prévoit:

i)

des mesures de réparation efficaces en ce qui concerne les risques posés par un système d’IA, à l’exclusion des réclamations en dommages-intérêts;

ii)

des mesures efficaces destinées à prévenir ou à réduire substantiellement ces risques.

3.   La Commission est habilitée à adopter des actes délégués conformément à l’article 97 pour modifier la liste figurant à l’annexe III en supprimant des systèmes d’IA à haut risque lorsque les deux conditions suivantes sont remplies:

a)

le système d’IA à haut risque concerné ne présente plus de risques substantiels pour les droits fondamentaux, la santé ou la sécurité, compte tenu des critères énumérés au paragraphe 2;

b)

la suppression ne diminue pas le niveau global de protection de la santé, de la sécurité et des droits fondamentaux en vertu du droit de l’Union.

Frequently Asked Questions

La Commission européenne est responsable de décider de l’ajout ou de la suppression de cas d’utilisation des systèmes d’intelligence artificielle à haut risque, en se basant sur l’évaluation approfondie des dangers ou des impacts sur la santé, la sécurité ou les droits fondamentaux, en respectant des critères spécifiques et en tenant compte des expertises et rapports existants.
La Commission examine divers critères pour modifier la liste, comme la destination du système d’IA, ses conséquences négatives passées, le nombre de personnes affectées, la vulnérabilité de celles-ci, l’autonomie du système, la gravité des dommages possibles ainsi que les possibilités ou difficultés de contrôler ou réparer ses conséquences négatives éventuelles.
Oui, un système d’IA initialement classé à haut risque peut ultérieurement être retiré de cette catégorie par la Commission européenne, si elle estime, selon des critères précis, que celui-ci ne présente plus de risques importants pour la santé, la sécurité ou les droits fondamentaux, et que la protection générale n’est pas réduite.
La liste peut être modifiée ou complétée lorsque la Commission détermine que certains systèmes d’IA utilisés dans les domaines inscrits présentent au moins un niveau de risque impactant la santé, la sécurité ou les droits fondamentaux égal ou supérieur à d’autres systèmes déjà classés comme étant à haut risque.

Maîtrise de l’IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!