Article 52

Procédure

1.   Lorsqu’un modèle d’IA à usage général remplit la condition visée à l’article 51, paragraphe 1, point a), le fournisseur concerné en informe la Commission sans tarder et, en tout état de cause, dans un délai de deux semaines après la date à laquelle ce critère est rempli ou après qu’il a été établi qu’il le sera. Cette notification comprend les informations nécessaires pour démontrer que le critère pertinent a été rempli. Si la Commission apprend l’existence d’un modèle d’IA à usage général présentant un risque systémique dont elle n’a pas été informée, elle peut décider de le désigner comme modèle présentant un risque systémique.

2.   Le fournisseur d’un modèle d’IA à usage général qui remplit la condition visée à l’article 51, paragraphe 1, point a), peut présenter, avec sa notification, des arguments suffisamment étayés pour démontrer que, exceptionnellement, bien qu’il remplisse ce critère, le modèle d’IA à usage général ne présente pas, en raison de ses caractéristiques spécifiques, de risque systémique et ne devrait donc pas être classé comme modèle d’IA à usage général présentant un risque systémique.

3.   Lorsque la Commission conclut que les arguments présentés conformément au paragraphe 2 ne sont pas suffisamment étayés et que le fournisseur concerné n’a pas été en mesure de démontrer que le modèle d’IA à usage général ne présente pas, en raison de ses caractéristiques spécifiques, de risque systémique, elle rejette ces arguments, et le modèle d’IA à usage général est considéré comme un modèle d’IA à usage général présentant un risque systémique.

4.   La Commission peut désigner un modèle d’IA à usage général comme présentant un risque systémique, d’office ou à la suite d’une alerte qualifiée du groupe scientifique conformément à l’article 90, paragraphe 1, point a), sur la base des critères énoncés à l’annexe XIII.

La Commission est habilitée à adopter des actes délégués conformément à l’article 97 pour modifier l’annexe XIII en précisant et mettant à jour les critères énoncés à ladite annexe.

5.   Sur demande motivée d’un fournisseur dont le modèle a été désigné comme modèle d’IA à usage général présentant un risque systémique en vertu du paragraphe 4, la Commission tient compte de la demande et peut décider de réévaluer si le modèle d’IA à usage général peut encore être considéré comme présentant un risque systémique sur la base des critères énoncés à l’annexe XIII. Une telle demande contient les éléments objectifs, détaillés et nouveaux qui sont apparus depuis la décision de désignation. Les fournisseurs peuvent demander une réévaluation au plus tôt six mois après la décision de désignation. Lorsque la Commission, à la suite de sa réévaluation, décide de maintenir la désignation en tant que modèle d’IA à usage général présentant un risque systémique, les fournisseurs peuvent demander une réévaluation au plus tôt six mois après cette décision.

6.   La Commission veille à ce qu’une liste des modèles d’IA à usage général présentant un risque systémique soit publiée et tient cette liste à jour, sans préjudice de la nécessité de respecter et de protéger les droits de propriété intellectuelle et les informations confidentielles de nature commerciale ou les secrets d’affaires conformément au droit de l’Union et au droit national.

Frequently Asked Questions

Si un modèle d’IA à usage général présente un risque systémique selon les critères définis par l’AI Act, le fournisseur doit rapidement en informer la Commission européenne dans un délai maximal de deux semaines. Cette notification doit inclure des informations détaillées prouvant que le modèle remplit les critères spécifiques le classant comme ayant un risque systémique suivant les dispositions établies dans la réglementation européenne sur l’intelligence artificielle.
Oui, le fournisseur peut argumenter auprès de la Commission européenne que, malgré le fait que son modèle réponde à certains critères, il ne présente pas réellement de risque systémique. Ces arguments doivent être accompagnés de preuves solides montrant clairement que les caractéristiques particulières du modèle le rendent inoffensif en termes de risques systémiques selon les standards définis par l’AI Act.
Si la Commission européenne estime que les arguments fournis ne sont pas suffisamment démontrés, elle rejettera la contestation et confirmera alors que le modèle est bien à risque systémique. Dès lors, le modèle d’IA sera officiellement reconnu comme présentant un risque systémique, soumettant ainsi le fournisseur à certaines obligations prévues par l’AI Act pour ces modèles spécifiques.
Oui, à la demande motivée du fournisseur, la Commission européenne peut réexaminer sa décision initiale de désignation. Cette demande doit comporter des éléments précis et nouveaux qui n’étaient pas connus lors de la première décision, et elle peut être formulée au plus tôt six mois après la précédente décision prise par la Commission concernant ce modèle particulier.

Maîtrise de l’IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!