Article 15

Exactitude, robustesse et cybersécurité

1.   La conception et le développement des systèmes d’IA à haut risque sont tels qu’ils leur permettent d’atteindre un niveau approprié d’exactitude, de robustesse et de cybersécurité, et de fonctionner de façon constante à cet égard tout au long de leur cycle de vie.

2.   Pour examiner les aspects techniques de la manière de mesurer les niveaux appropriés d’exactitude et de robustesse visés au paragraphe 1 et tout autre indicateur de performance pertinent, la Commission, en coopération avec les parties prenantes et organisations concernées, telles que les autorités de métrologie et d’étalonnage des performances, encourage, le cas échéant, l’élaboration de critères de référence et de méthodes de mesure.

3.   Les niveaux d’exactitude et les indicateurs de l’exactitude des systèmes d’IA à haut risque sont indiqués dans la notice d’utilisation jointe.

4.   Les systèmes d’IA à haut risque font preuve d’autant de résilience que possible en cas d’erreurs, de défaillances ou d’incohérences pouvant survenir au sein des systèmes eux-mêmes ou de l’environnement dans lequel ils fonctionnent, notamment en raison de leur interaction avec des personnes physiques ou d’autres systèmes. Des mesures techniques et organisationnelles sont prises à cet égard.

Des solutions techniques redondantes, telles que des plans de sauvegarde ou des mesures de sécurité après défaillance, peuvent permettre de garantir la robustesse des systèmes d’IA à haut risque.

Les systèmes d’IA à haut risque qui continuent leur apprentissage après leur mise sur le marché ou leur mise en service sont développés de manière à éliminer ou à réduire dans la mesure du possible le risque que des sorties éventuellement biaisées n’influencent les entrées pour les opérations futures (boucles de rétroaction) et à veiller à ce que ces boucles de rétroaction fassent l’objet d’un traitement adéquat au moyen de mesures d’atténuation appropriées.

5.   Les systèmes d’IA à haut risque résistent aux tentatives de tiers non autorisés visant à modifier leur utilisation, leurs sorties ou leur performance en exploitant les vulnérabilités du système.

Les solutions techniques visant à garantir la cybersécurité des systèmes d’IA à haut risque sont adaptées aux circonstances pertinentes et aux risques.

Les solutions techniques destinées à remédier aux vulnérabilités spécifiques à l’IA comprennent, au besoin, des mesures ayant pour but de prévenir, de détecter, de contrer, de résoudre et de maîtriser les attaques visant à manipuler le jeu de données d’entraînement (empoisonnement des données) ou les composants préentraînés utilisés en entraînement (empoisonnement de modèle), les entrées destinées à induire le modèle d’IA en erreur (exemples contradictoires ou invasion de modèle), les attaques visant la confidentialité ou les défauts du modèle.

Frequently Asked Questions

Cela signifie que les systèmes d’intelligence artificielle à haut risque doivent fonctionner de façon fiable et précise, tout en étant difficiles à perturber ou pirater ; ils doivent gérer efficacement les erreurs et résister aux attaques informatiques tout au long de leur utilisation, notamment par l’application de mesures techniques innovantes et des précautions de sécurité adaptées aux risques possibles.
Ces critères sont élaborés par la Commission européenne en collaboration avec des experts, des entreprises et des autorités spécialisées en technologie, métrologie et évaluation des performances ; ils créent ensemble des références et méthodes de mesure fiables pour déterminer et vérifier le bon fonctionnement des systèmes d’intelligence artificielle dans des situations réelles et variées.
Les systèmes d’intelligence artificielle à haut risque doivent inclure des éléments de sécurité supplémentaires, comme des sauvegardes ou des mécanismes techniques permettant de détecter rapidement et de réagir lorsqu’une erreur apparaît ; le but est de limiter efficacement tout problème ou danger causé par des dysfonctionnements du système ou par son interaction avec des utilisateurs et d’autres systèmes.
Les systèmes d’intelligence artificielle à haut risque doivent inclure des solutions adaptées aux attaques informatiques, comme des méthodes pour empêcher ou répondre efficacement à la modification malveillante des données ou du modèle d’apprentissage, détecter et bloquer des tentatives de manipulation mal intentionnée ou protéger les informations sensibles contre toute tentative de violation de confidentialité.

Maîtrise de l’IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!