Article 82

Systèmes d’IA conformes qui présentent un risque

1.   Lorsque, ayant réalisé une évaluation au titre de l’article 79, après avoir consulté l’autorité publique nationale concernée visée à l’article 77, paragraphe 1, l’autorité de surveillance du marché d’un État membre constate que, bien qu’un système d’IA à haut risque soit conforme au présent règlement, il comporte néanmoins un risque pour la santé ou la sécurité des personnes, pour les droits fondamentaux, ou pour d’autres aspects relatifs à la protection de l’intérêt public, elle demande à l’opérateur concerné de prendre toutes les mesures appropriées pour faire en sorte que le système d’IA concerné, une fois mis sur le marché ou mis en service, ne présente plus ce risque, et ce sans retard injustifié, dans un délai qu’elle peut prescrire.

2.   Le fournisseur ou autre opérateur concerné s’assure que des mesures correctives sont prises pour tous les systèmes d’IA concernés qu’il a mis à disposition sur le marché de l’Union dans le délai prescrit par l’autorité de surveillance du marché de l’État membre visée au paragraphe 1.

3.   Les États membres informent immédiatement la Commission et les autres États membres d’une constatation au titre du paragraphe 1. Les informations fournies incluent toutes les précisions disponibles, notamment les données nécessaires à l’identification du système d’IA concerné, l’origine et la chaîne d’approvisionnement de ce système d’IA, la nature du risque encouru, ainsi que la nature et la durée des mesures nationales prises.

4.   La Commission entame sans retard injustifié des consultations avec les États membres concernés et les opérateurs concernés, et évalue les mesures nationales prises. En fonction des résultats de cette évaluation, la Commission décide si la mesure est justifiée ou non et, si nécessaire, propose d’autres mesures appropriées.

5.   La Commission communique immédiatement sa décision aux États membres concernés ainsi qu’aux opérateurs concernés. Elle en informe également les autres États membres.

Frequently Asked Questions

Même lorsqu’un système d’intelligence artificielle (IA) respecte toutes les règles prévues par l’AI Act, s’il présente malgré tout un risque pour la sécurité, la santé ou les droits fondamentaux, les autorités peuvent exiger que les entreprises concernées prennent rapidement des mesures de correction pour éliminer ce risque avant utilisation sur le marché européen.
Si un risque est découvert par une autorité, l’opérateur qui fournit l’intelligence artificielle doit rapidement mettre en œuvre toutes les mesures correctives nécessaires dans le délai fixé par cette autorité, pour garantir que le système IA ne présente plus aucun danger ou problème grave lorsqu’il sera utilisé.
Les États membres doivent immédiatement informer la Commission européenne ainsi que tous les autres États membres lorsqu’une IA pose un problème sérieux, en précisant clairement de quel système il s’agit, comment il est fabriqué et distribué, quel danger précis il représente et quelles mesures correctives ont été prises.
Lorsque la Commission reçoit une notification de problème lié à une intelligence artificielle, elle consulte rapidement les pays et entreprises concernés, examine les actions déjà prises et décide ensuite si ces mesures sont adéquates ou si d’autres solutions doivent être adoptées pour protéger efficacement les citoyens européens.

Maîtrise de l’IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!