Artigo 112.º

Avaliação e reexame

1.   A Comissão avalia a necessidade de alterar a lista que consta do anexo III e a lista das práticas de IA proibidas prevista no artigo 5.o, uma vez por ano após a entrada em vigor do presente regulamento e até ao final do prazo da delegação de poderes prevista no artigo 97.o. A Comissão apresenta os resultados dessa avaliação ao Parlamento Europeu e ao Conselho.

2.   Até 2 de agosto de 2028 e, posteriormente, de quatro em quatro anos, a Comissão avalia e apresenta ao Parlamento Europeu e ao Conselho um relatório sobre o seguinte:

a)

A necessidade de alterações que alarguem as rubricas existentes ou acrescentem novas rubricas no anexo III;

b)

Alterações à lista de sistemas de IA que, nos termos do artigo 50.o, exigem medidas de transparência adicionais;

c)

Alterações que aumentem a eficácia do sistema de supervisão e governação.

3.   Até 2 de agosto de 2029 e, posteriormente, de quatro em quatro anos, a Comissão apresenta ao Parlamento Europeu e ao Conselho um relatório sobre a avaliação e reexame do presente regulamento. O relatório deve incluir uma avaliação da estrutura de execução e da eventual necessidade de um organismo da União para resolver as deficiências identificadas. Com base nas conclusões, esse relatório é acompanhado, quando adequado, de uma proposta de alteração do presente regulamento. Os relatórios devem ser divulgados ao público.

4.   Os relatórios a que se refere o n.o 2 devem dar especial atenção ao seguinte:

a)

A situação das autoridades nacionais competentes em termos de recursos financeiros, técnicos e humanos necessários para desempenhar eficazmente as funções que lhes foram atribuídas nos termos do presente regulamento;

b)

O estado das sanções, nomeadamente das coimas a que se refere o artigo 99.o, n.o 1, aplicadas pelos Estados-Membros em consequência de infrações ao presente regulamento;

c)

Normas harmonizadas adotadas e especificações comuns elaboradas para apoiar o presente regulamento;

d)

O número de empresas que entram no mercado após o início da aplicação do presente regulamento e quantas delas são PME.

5.   Até 2 de agosto de 2028, a Comissão avalia o funcionamento do Serviço para a IA, a questão de saber se foram atribuídos ao Serviço para a IA poderes e competências suficientes para o desempenho das suas funções e se, para a correta aplicação e execução do presente regulamento, seria pertinente e necessário reforçar o Serviço para a IA e os seus poderes de execução, bem como aumentar os seus recursos. A Comissão apresenta um relatório sobre a sua avaliação ao Parlamento Europeu e ao Conselho.

6.   Até 2 de agosto de 2028 e, posteriormente, de quatro em quatro anos, a Comissão apresenta um relatório sobre a análise dos progressos realizados no desenvolvimento de produtos de normalização sobre o desenvolvimento eficiente do ponto de vista energético de modelos de IA de finalidade geral e avalia a necessidade de novas medidas ou ações, incluindo medidas ou ações vinculativas. O relatório é apresentado ao Parlamento Europeu e ao Conselho e é tornado público.

7.   Até 2 de agosto de 2028 e, posteriormente, de três em três anos, a Comissão avalia o impacto e a eficácia dos códigos de conduta voluntários destinados a fomentar a aplicação dos requisitos estabelecidos no capítulo III, secção 2, a sistemas de IA que não sejam sistemas de IA de risco elevado e, eventualmente, de outros requisitos adicionais a sistemas de IA que não sejam sistemas de IA de risco elevado, inclusive no que diz respeito à sustentabilidade ambiental.

8.   Para efeitos do disposto nos n.os 1 a 7, o Comité, os Estados-Membros e as autoridades nacionais competentes devem facultar à Comissão, sem demora injustificada, as informações que esta solicitar.

9.   Ao efetuar as avaliações e os reexames a que se referem os n.os 1 a 7, a Comissão tem em consideração as posições e as conclusões do Comité, do Parlamento Europeu, do Conselho e de outros organismos ou fontes pertinentes.

10.   Se necessário, a Comissão apresenta propostas adequadas com vista a alterar o presente regulamento, atendendo, em especial, à evolução das tecnologias, ao efeito dos sistemas de IA na saúde, na segurança e nos direitos fundamentais e aos progressos da sociedade da informação.

11.   Para orientar as avaliações e os reexames referidos nos n.os 1 a 7 do presente artigo, o Serviço para a IA compromete-se a desenvolver uma metodologia objetiva e participativa para a avaliação dos níveis de risco com base nos critérios estabelecidos nos artigos pertinentes e a inclusão de novos sistemas:

a)

Na lista constante do anexo III, incluindo a extensão dos domínios existentes ou o aditamento de novos domínios nesse anexo;

b)

Na lista das práticas proibidas que consta do artigo 5.o; e

c)

Na lista dos sistemas de IA que, nos termos do artigo 50.o, exigem medidas de transparência adicionais.

12.   Qualquer alteração do presente regulamento nos termos do n.o 10, ou de atos delegados ou de execução pertinentes, que incida sobre os atos enumerados na lista da legislação setorial de harmonização da União constante do anexo I, secção B, deve ter em conta as especificidades regulamentares de cada setor e os mecanismos aplicáveis em matéria de governação, avaliação da conformidade e de execução, bem como as autoridades previstas nos mesmos.

13.   Até 2 de agosto de 2031, a Comissão procede a uma avaliação da execução do presente regulamento e apresenta um relatório da avaliação ao Parlamento Europeu, ao Conselho e ao Comité Económico e Social Europeu, tendo em conta os primeiros anos de aplicação do presente regulamento. Com base nas conclusões, tal relatório deve, quando adequado, ser acompanhado de uma proposta de alteração do presente regulamento no que diz respeito à estrutura de execução e à necessidade de um organismo da União para resolver quaisquer deficiências identificadas.

Frequently Asked Questions

A Comissão Europeia faz avaliações anuais sobre a necessidade de atualizar as listas de práticas proibidas e de alto risco de IA, e, a cada quatro anos, entrega ao Parlamento Europeu relatórios detalhando possíveis mudanças nos requisitos, transparência e supervisão das tecnologias e suas práticas.
As avaliações da Comissão prestam atenção especial a recursos das autoridades nacionais, sanções aplicadas pelos Estados-Membros, normas harmonizadas e também ao crescimento de novas empresas, incluindo pequenas e médias empresas, que entram no mercado após a implementação do regulamento sobre inteligência artificial.
Sim, a Comissão Europeia analisa periodicamente a eficiência energética dos modelos gerais de inteligência artificial e avalia os códigos voluntários aplicados para sistemas que não são considerados de alto risco, incluindo suas implicações na sustentabilidade ambiental para assegurar uma utilização responsável e consciente das tecnologias.
O Serviço para a Inteligência Artificial desenvolve métodos objetivos para avaliar os níveis de risco dos sistemas de IA e seus potenciais impactos, verificando a necessidade de incluir novos sistemas nas listas de IA proibidas ou de alto risco, de forma transparente, participativa e segundo critérios claros e definidos.

Literacia no domínio da IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!