Article 10

Données et gouvernance des données

1.   Les systèmes d’IA à haut risque faisant appel à des techniques qui impliquent l’entraînement de modèles d’IA au moyen de données sont développés sur la base de jeux de données d’entraînement, de validation et de test qui satisfont aux critères de qualité visés aux paragraphes 2 à 5 chaque fois que ces jeux de données sont utilisés.

2.   Les jeux de données d’entraînement, de validation et de test sont soumis à des pratiques en matière de gouvernance et de gestion des données appropriées à la destination du systèmes d’IA à haut risque. Ces pratiques concernent en particulier:

a)

les choix de conception pertinents;

b)

les processus de collecte de données et l’origine des données, ainsi que, dans le cas des données à caractère personnel, la finalité initiale de la collecte de données;

c)

les opérations de traitement pertinentes pour la préparation des données, telles que l’annotation, l’étiquetage, le nettoyage, la mise à jour, l’enrichissement et l’agrégation;

d)

la formulation d’hypothèses, notamment en ce qui concerne les informations que les données sont censées mesurer et représenter;

e)

une évaluation de la disponibilité, de la quantité et de l’adéquation des jeux de données nécessaires;

f)

un examen permettant de repérer d’éventuels biais qui sont susceptibles de porter atteinte à la santé et à la sécurité des personnes, d’avoir une incidence négative sur les droits fondamentaux ou de se traduire par une discrimination interdite par le droit de l’Union, en particulier lorsque les données de sortie influencent les entrées pour les opérations futures;

g)

les mesures appropriées visant à détecter, prévenir et atténuer les éventuels biais repérés conformément au point f);

h)

la détection de lacunes ou déficiences pertinentes dans les données qui empêchent l’application du présent règlement, et la manière dont ces lacunes ou déficiences peuvent être comblées.

3.   Les jeux de données d’entraînement, de validation et de test sont pertinents, suffisamment représentatifs et, dans toute la mesure possible, exempts d’erreurs et complets au regard de la destination. Ils possèdent les propriétés statistiques appropriées, y compris, le cas échéant, en ce qui concerne les personnes ou groupes de personnes à l’égard desquels le système d’IA à haut risque est destiné à être utilisé. Ces caractéristiques des jeux de données peuvent être remplies au niveau des jeux de données pris individuellement ou d’une combinaison de ceux-ci.

4.   Les jeux de données tiennent compte, dans la mesure requise par la destination, des caractéristiques ou éléments propres au cadre géographique, contextuel, comportemental ou fonctionnel spécifique dans lequel le système d’IA à haut risque est destiné à être utilisé.

5.   Dans la mesure où cela est strictement nécessaire aux fins de la détection et de la correction des biais en ce qui concerne les systèmes d’IA à haut risque, conformément au paragraphe 2, points f) et g), du présent article, les fournisseurs de ces systèmes peuvent exceptionnellement traiter des catégories particulières de données à caractère personnel, sous réserve de garanties appropriées pour les droits et libertés fondamentaux des personnes physiques. Outre les dispositions des règlements (UE) 2016/679 et (UE) 2018/1725 et de la directive (UE) 2016/680, toutes les conditions suivantes doivent être réunies pour que ce traitement puisse avoir lieu:

a)

la détection et la correction des biais ne peuvent être satisfaites de manière efficace en traitant d’autres données, y compris des données synthétiques ou anonymisées;

b)

les catégories particulières de données à caractère personnel sont soumises à des limitations techniques relatives à la réutilisation des données à caractère personnel, ainsi qu’aux mesures les plus avancées en matière de sécurité et de protection de la vie privée, y compris la pseudonymisation;

c)

les catégories particulières de données à caractère personnel font l’objet de mesures visant à garantir que les données à caractère personnel traitées sont sécurisées, protégées et soumises à des garanties appropriées, y compris des contrôles stricts et une documentation de l’accès, afin d’éviter toute mauvaise utilisation et de veiller à ce que seules les personnes autorisées ayant des obligations de confidentialité appropriées aient accès à ces données à caractère personnel;

d)

les catégories particulières de données à caractère personnel ne doivent pas être transmises, transférées ou consultées d’une autre manière par d’autres parties;

e)

les catégories particulières de données à caractère personnel sont supprimées une fois que le biais a été corrigé ou que la période de conservation des données à caractère personnel a expiré, selon celle de ces deux échéances qui arrive en premier;

f)

les registres des activités de traitement visés dans les règlements (UE) 2016/679 et (UE) 2018/1725 et dans la directive (UE) 2016/680 comprennent les raisons pour lesquelles le traitement des catégories particulières de données à caractère personnel était strictement nécessaire pour détecter et corriger les biais, ainsi que la raison pour laquelle cet objectif n’a pas pu être atteint par le traitement d’autres données.

6.   En ce qui concerne le développement de systèmes d’IA à haut risque qui ne font pas appel à des techniques qui impliquent l’entraînement de modèles d’IA, les paragraphes 2 à 5 s’appliquent uniquement aux jeux de données de test.

Frequently Asked Questions

Les données utilisées doivent être de haute qualité pour éviter les erreurs et les biais, ce qui réduit les risques d’atteinte aux droits humains et de discrimination; ainsi elles garantissent la sécurité, la précision, et protègent efficacement les droits fondamentaux et la dignité des personnes touchées par les décisions prises par ces systèmes.
Pour prévenir les biais, les fournisseurs doivent évaluer régulièrement leurs données pour identifier d’éventuels préjugés, puis mettre en place des stratégies efficaces comme nettoyer et équilibrer les données, imposer une transparence dans le traitement, et, si nécessaire, utiliser des données sensibles sous des mesures très strictes de sécurité et de confidentialité.
Oui, mais uniquement exceptionnellement et si aucune autre alternative ne permet de corriger efficacement les biais; dans ce cas, des protections très strictes sont obligatoires, telles que l’utilisation de pseudonymisation, une sécurité renforcée, et la limitation d’accès strictement à des personnes autorisées pour assurer la protection des droits fondamentaux des individus.
Les données doivent être pertinentes pour leur usage, représentatives des groupes concernés, exemptes au maximum d’erreurs, complètes, et statistiquement appropriées; elles doivent aussi prendre en compte les spécificités géographiques, comportementales ou fonctionnelles de l’endroit ou des personnes pour lesquels le système est conçu.

Maîtrise de l’IA

Book Demo

We will get back to you via email as soon as possible.