Article 14

Contrôle humain

1.   La conception et le développement des systèmes d’IA à haut risque permettent, notamment au moyen d’interfaces homme-machine appropriées, un contrôle effectif par des personnes physiques pendant leur période d’utilisation.

2.   Le contrôle humain vise à prévenir ou à réduire au minimum les risques pour la santé, la sécurité ou les droits fondamentaux qui peuvent apparaître lorsqu’un système d’IA à haut risque est utilisé conformément à sa destination ou dans des conditions de mauvaise utilisation raisonnablement prévisible, en particulier lorsque de tels risques persistent malgré l’application d’autres exigences énoncées dans la présente section.

3.   Les mesures de contrôle sont proportionnées aux risques, au niveau d’autonomie et au contexte d’utilisation du système d’IA à haut risque, et sont assurées au moyen d’un ou des deux types de mesures suivants:

a)

des mesures identifiées et, lorsque cela est techniquement possible, intégrées par le fournisseur dans le système d’IA à haut risque avant la mise sur le marché ou la mise en service de ce dernier;

b)

des mesures identifiées par le fournisseur avant la mise sur le marché ou la mise en service du système d’IA à haut risque et qui se prêtent à une mise en œuvre par le déployeur.

4.   Aux fins de la mise en œuvre des dispositions des paragraphes 1, 2 et 3, le système d’IA à haut risque est fourni au déployeur de telle manière que les personnes physiques chargées d’effectuer un contrôle humain, dans la mesure où cela est approprié et proportionné, ont la possibilité:

a)

de comprendre correctement les capacités et les limites pertinentes du système d’IA à haut risque et d’être en mesure de surveiller correctement son fonctionnement, y compris en vue de détecter et de traiter les anomalies, les dysfonctionnements et les performances inattendues;

b)

d’avoir conscience d’une éventuelle tendance à se fier automatiquement ou excessivement aux sorties produites par un système d’IA à haut risque (biais d’automatisation), en particulier pour les systèmes d’IA à haut risque utilisés pour fournir des informations ou des recommandations concernant les décisions à prendre par des personnes physiques;

c)

d’interpréter correctement les sorties du système d’IA à haut risque, compte tenu par exemple des outils et méthodes d’interprétation disponibles;

d)

de décider, dans une situation particulière, de ne pas utiliser le système d’IA à haut risque ou d’ignorer, remplacer ou inverser la sortie du système d’IA à haut risque;

e)

d’intervenir dans le fonctionnement du système d’IA à haut risque ou d’interrompre le système au moyen d’un bouton d’arrêt ou d’une procédure similaire permettant au système de s’arrêter de manière sécurisée.

5.   Pour les systèmes d’IA à haut risque visés à l’annexe III, point 1 a), les mesures prévues au paragraphe 3 du présent article sont de nature à garantir que, en outre, aucune mesure ou décision n’est prise par le déployeur sur la base de l’identification résultant du système sans vérification et confirmation distinctes de cette identification par au moins deux personnes physiques disposant des compétences, de la formation et de l’autorité nécessaires.

L’exigence d’une vérification distincte par au moins deux personnes physiques ne s’applique pas aux systèmes d’IA à haut risque utilisés à des fins répressives ou dans les domaines de la migration, des contrôles aux frontières ou de l’asile, lorsque le droit de l’Union ou le droit national considère que l’application de cette exigence est disproportionnée.

Frequently Asked Questions

Le contrôle humain est nécessaire pour prévenir ou réduire autant que possible les risques liés à la sécurité, à la santé ou aux droits fondamentaux des personnes, particulièrement lorsque ces risques persistent même après avoir pris d’autres précautions, garantissant ainsi une utilisation sûre et responsable des systèmes d’intelligence artificielle à haut risque.
Les mesures pour assurer le contrôle humain peuvent inclure celles incorporées directement dans la conception et le développement du système par les fabricants, ainsi que celles identifiées à l’avance mais mises en œuvre par les utilisateurs finaux, selon les risques, l’autonomie du système et les circonstances spécifiques de son utilisation concrète.
Ces personnes doivent comprendre les capacités et les limites du système, être capables de détecter et gérer les problèmes inattendus, reconnaître le risque d’une confiance excessive envers le système, interpréter correctement ses résultats et savoir quand intervenir, ignorer ou arrêter complètement le système en toute sécurité.
Oui, dans certains cas liés à l’identification biométrique à distance, il faut systématiquement une double vérification indépendante par deux experts qualifiés avant toute décision basée sur le résultat du système, sauf exception précisément définie par le droit européen ou national dans des domaines comme le maintien de l’ordre ou les contrôles frontaliers.

Maîtrise de l’IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!