Article 13

Transparence et fourniture d’informations aux déployeurs

1.   La conception et le développement des systèmes d’IA à haut risque sont tels que le fonctionnement de ces systèmes est suffisamment transparent pour permettre aux déployeurs d’interpréter les sorties d’un système et de les utiliser de manière appropriée. Un type et un niveau adéquats de transparence sont garantis afin de veiller au respect des obligations pertinentes incombant au fournisseur et au déployeur énoncées à la section 3.

2.   Les systèmes d’IA à haut risque sont accompagnés d’une notice d’utilisation dans un format numérique approprié ou autre, contenant des informations concises, complètes, exactes et claires, qui soient pertinentes, accessibles et compréhensibles pour les déployeurs.

3.   La notice d’utilisation contient au moins les informations suivantes:

a)

l’identité et les coordonnées du fournisseur et, le cas échéant, de son mandataire;

b)

les caractéristiques, les capacités et les limites de performance du système d’IA à haut risque, notamment:

i)

sa destination;

ii)

le niveau d’exactitude, y compris les indicateurs utilisés, de robustesse et de cybersécurité visé à l’article 15 qui a servi de référence pour les tests et la validation du système d’IA à haut risque et qui peut être attendu, ainsi que toutes circonstances connues et prévisibles susceptibles d’avoir une incidence sur le niveau attendu d’exactitude, de robustesse et de cybersécurité;

iii)

toutes circonstances connues ou prévisibles liées à l’utilisation du système d’IA à haut risque conformément à sa destination ou dans des conditions de mauvaise utilisation raisonnablement prévisible, susceptibles d’entraîner des risques pour la santé et la sécurité ou pour les droits fondamentaux visés à l’article 9, paragraphe 2;

iv)

le cas échéant, les capacités et caractéristiques techniques du système d’IA à haut risque à fournir des informations pertinentes pour expliquer ses sorties;

v)

le cas échéant, sa performance en ce qui concerne des personnes ou groupes de personnes spécifiques à l’égard desquels le système est destiné à être utilisé;

vi)

le cas échéant, les spécifications relatives aux données d’entrée, ou toute autre information pertinente concernant les jeux de données d’entraînement, de validation et de test utilisés, compte tenu de la destination du système d’IA à haut risque;

vii)

le cas échéant, les informations permettant aux déployeurs d’interpréter les sorties du système d’IA à haut risque et de les utiliser de manière appropriée;

c)

les modifications du système d’IA à haut risque et de sa performance qui ont été prédéterminées par le fournisseur au moment de l’évaluation initiale de la conformité, le cas échéant;

d)

les mesures de contrôle humain visées à l’article 14, notamment les mesures techniques mises en place pour faciliter l’interprétation des sorties des systèmes d’IA à haut risque par les déployeurs;

e)

les ressources informatiques et matérielles nécessaires, la durée de vie attendue du système d’IA à haut risque et toutes les mesures de maintenance et de suivi, y compris leur fréquence, nécessaires pour assurer le bon fonctionnement de ce système d’IA, notamment en ce qui concerne les mises à jour logicielles;

f)

le cas échéant, une description des mécanismes compris dans le système d’IA à haut risque qui permet aux déployeurs de collecter, stocker et interpréter correctement les journaux, conformément à l’article 12.

Frequently Asked Questions

La transparence est essentielle pour que les utilisateurs comprennent comment l’intelligence artificielle atteint ses résultats et puissent ainsi l’utiliser de manière sûre et responsable. Cela permet aussi aux organismes de s’assurer que les systèmes fonctionnent correctement et de vérifier leur conformité avec les règles, afin de protéger la sécurité et les droits fondamentaux des personnes concernées.
La notice doit contenir l’identité du fournisseur, les caractéristiques du système et ses limites, son niveau attendu d’exactitude et de sécurité, les risques potentiels, les informations techniques pour comprendre les résultats, les exigences d’entretien et de mise à jour, ainsi que les outils de suivi du système comme les journaux d’activité.
La notice d’utilisation explique clairement comment le système fonctionne, ses capacités et ses limites, afin que les déployeurs puissent l’utiliser correctement et en toute sécurité. Elle permet aussi aux utilisateurs de prévenir et réduire les risques potentiels, améliorant ainsi la protection de la santé, de la sécurité et des droits fondamentaux.
Le contrôle humain signifie qu’il existe des mesures techniques et des procédures spécifiques permettant aux utilisateurs de vérifier, comprendre et interpréter les résultats du système d’intelligence artificielle. Cela garantit que les décisions importantes ne reposent pas entièrement sur l’IA, mais bénéficient aussi d’une évaluation approfondie effectuée par des personnes réelles.

Maîtrise de l’IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!