Article 20

Mesures corrective et devoir d’information

1.   Les fournisseurs de systèmes d’IA à haut risque qui considèrent ou ont des raisons de considérer qu’un système d’IA à haut risque qu’ils ont mis sur le marché ou mis en service n’est pas conforme au présent règlement prennent immédiatement les mesures correctives nécessaires pour le mettre en conformité, le retirer, le désactiver ou le rappeler, selon le cas. Ils informent les distributeurs du système d’IA à haut risque concerné et, le cas échéant, les déployeurs, le mandataire et les importateurs en conséquence.

2.   Lorsque le système d’IA à haut risque présente un risque au sens de l’article 79, paragraphe 1, et que le fournisseur prend conscience de ce risque, celui-ci recherche immédiatement les causes, en collaboration avec le déployeur à l’origine du signalement, le cas échéant, et informe les autorités de surveillance du marché compétentes pour le système d’IA à haut risque concerné et, le cas échéant, l’organisme notifié qui a délivré un certificat pour ce système d’IA à haut risque, conformément à l’article 44, en précisant en particulier la nature du cas de non-conformité et les éventuelles mesures correctives pertinentes prises.

Frequently Asked Questions

Si les fournisseurs découvrent que leur système d’intelligence artificielle à haut risque ne respecte pas les règles de l’AI Act, ils doivent immédiatement prendre des actions pour corriger le problème, retirer le produit du marché, l’arrêter ou même le rappeler, et informer tous les partenaires importants tels que distributeurs, utilisateurs ou importateurs concernés par ce système.
Lorsqu’un système d’intelligence artificielle à haut risque présente un danger important, le fournisseur doit immédiatement rechercher les causes, informer les autorités responsables de surveiller le marché ainsi que l’organisme officiel ayant délivré son certificat, tout en travaillant étroitement avec la personne ou l’entreprise qui déploie ce système d’IA afin de résoudre le problème rapidement.
L’AI Act indique clairement que les mesures correctives incluent la mise en conformité du système problématique, sa désactivation, son retrait du marché ou son rappel complet en fonction de la gravité et du type de problème identifié, afin d’assurer la sécurité des utilisateurs et du public en général.
Informer rapidement les autorités compétentes permet non seulement de protéger efficacement les utilisateurs du système d’IA, mais aussi garantit une réponse rapide et appropriée aux risques éventuels, aidant ainsi à préserver la confiance publique dans les technologies d’intelligence artificielle et leur sécurité globale dans toute l’Union européenne.

Maîtrise de l’IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!