Artigo 51.º

Classificação de modelos de IA de finalidade geral como modelos de IA de finalidade geral com risco sistémico

1.   Um modelo de IA de finalidade geral é classificado como modelo de IA de finalidade geral com risco sistémico se preencher qualquer uma das seguintes condições:

a)

Ter capacidades de elevado impacto avaliadas com base em ferramentas e metodologias técnicas adequadas, incluindo indicadores e parâmetros de referência;

b)

Ter capacidades ou um impacto equivalentes às estabelecidas na alínea a), tendo em conta os critérios estabelecidos no anexo XIII, com base numa decisão da Comissão, ex officio ou na sequência de um alerta qualificado do painel científico.

2.   Presume-se que um modelo de IA de finalidade geral tem capacidades de elevado impacto nos termos do n.o 1, alínea a), quando a quantidade acumulada de cálculo utilizado para o seu treino, medido em operações de vírgula flutuante por segundo, for superior a 1025.

3.   A Comissão adota atos delegados nos termos do artigo 97.o para alterar os limiares enumerados nos n.os 1 e 2 do presente artigo, bem como para complementar os parâmetros de referência e os indicadores à luz da evolução tecnológica, tais como melhorias algorítmicas ou uma maior eficiência do hardware, se necessário, para que esses limiares reflitam o estado da arte.

Frequently Asked Questions

Um modelo de IA é classificado como risco sistémico quando possui capacidades significativas com potencial de impacto elevado, determinadas por ferramentas técnicas específicas ou condições definidas pela Comissão Europeia, por exemplo, ter uma capacidade de processamento muito grande ou causar grande impacto que possa afetar amplamente os indivíduos ou a sociedade.
A capacidade de impacto elevado em modelos de inteligência artificial de finalidade geral geralmente é presumida quando se usam grandes quantidades de processamento computacional—acima de 10^25 operações de vírgula flutuante por segundo—medida usada normalmente para indicar quão complexos ou avançados são estes modelos durante o seu treino e operação.
A Comissão Europeia toma estas decisões diretamente ou após receber um alerta fundamentado do painel científico que avalia os critérios definidos na legislação, analisando a capacidade e os possíveis impactos amplos ou prejudiciais que a utilização desse modelo poderia causar na população, nos direitos fundamentais ou nos sistemas sociais.
Sim, a Comissão Europeia pode atualizar esses limiares através de atos delegados para refletirem avanços tecnológicos, como melhorias em algoritmos e hardware, garantindo assim que os critérios para classificar um modelo como de risco elevado mantenham-se adequados e ajustados ao estado atual da tecnologia em inteligência artificial.

Literacia no domínio da IA

Book Demo

We will get back to you via email as soon as possible.