Article 55

Obligations incombant aux fournisseurs de modèles d’IA à usage général présentant un risque systémique

1.   Outre les obligations énumérées aux articles 53 et 54, les fournisseurs de modèles d’IA à usage général présentant un risque systémique:

a)

effectuent une évaluation des modèles sur la base de protocoles et d’outils normalisés reflétant l’état de la technique, y compris en réalisant et en documentant des essais contradictoires des modèles en vue d’identifier et d’atténuer les risques systémiques;

b)

évaluent et atténuent les risques systémiques éventuels au niveau de l’Union, y compris leurs origines, qui peuvent découler du développement, de la mise sur le marché ou de l’utilisation de modèles d’IA à usage général présentant un risque systémique;

c)

suivent, documentent et communiquent sans retard injustifié au Bureau de l’IA et, le cas échéant, aux autorités nationales compétentes les informations pertinentes concernant les incidents graves ainsi que les éventuelles mesures correctives pour y remédier;

d)

garantissent un niveau approprié de protection en matière de cybersécurité pour le modèle d’IA à usage général présentant un risque systémique et l’infrastructure physique du modèle.

2.   Les fournisseurs de modèles d’IA à usage général présentant un risque systémique peuvent s’appuyer sur des codes de bonne pratique au sens de l’article 56 pour démontrer qu’ils respectent les obligations énoncées au paragraphe 1 du présent article, jusqu’à la publication d’une norme harmonisée. Le respect des normes européennes harmonisées confère au fournisseur une présomption de conformité dans la mesure où lesdites normes couvrent ces obligations. Les fournisseurs de modèles d’IA à usage général présentant un risque systémique qui n’adhèrent pas à un code de bonnes pratiques approuvé ou ne respectent pas une norme européenne harmonisée démontrent qu’ils disposent d’autres moyens appropriés de mise en conformité et les soumettent à l’appréciation de la Commission.

3.   Toute information ou documentation obtenue en vertu du présent article, y compris les secrets d’affaires, est traitée conformément aux obligations de confidentialité énoncées à l’article 78.

Frequently Asked Questions

Les fournisseurs de systèmes d’intelligence artificielle à usage général présentant des risques importants doivent tester soigneusement leurs modèles selon des méthodes précises, surveiller et limiter les risques pouvant affecter l’ensemble de l’Union européenne, signaler rapidement tout incident grave aux autorités compétentes et garantir que leurs systèmes informatiques sont suffisamment protégés contre les menaces informatiques et physiques.
Les entreprises concernées peuvent adopter un code de bonnes pratiques reconnu ou suivre une norme harmonisée européenne afin de montrer qu’elles remplissent les exigences obligatoires ; si elles ne choisissent aucune de ces solutions, elles doivent fournir aux autorités européennes une preuve détaillée d’autres méthodes efficaces qu’elles utilisent pour se conformer aux règles.
Les tests réalisés pour identifier et réduire les risques impliquent l’utilisation de protocoles et d’outils normalisés qui correspondent aux pratiques techniques actuelles ; cela inclut notamment des essais contradictoires, c’est-à-dire des tests spécialement conçus pour évaluer dans quelles situations ou circonstances le modèle pourrait échouer ou poser problème.
Toutes les données ou documents, y compris les secrets commerciaux que les fournisseurs partagent avec les autorités selon ces règles, sont protégés par des mesures strictes de confidentialité établies à l’article 78, ce qui signifie que ces informations ne peuvent pas être divulguées de manière injustifiée ou sans précautions appropriées.

Maîtrise de l’IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!