Artigo 92.º

Poder para realizar avaliações

1.   O Serviço para a IA, após consulta do Comité, pode realizar avaliações do modelo de IA de finalidade geral em causa para:

a)

Avaliar o cumprimento, por parte do prestador, das obrigações decorrentes do presente regulamento, caso as informações recolhidas nos termos do artigo 91.o sejam insuficientes; ou,

b)

Investigar os riscos sistémicos a nível da União de modelos de IA de finalidade geral com risco sistémico, em especial na sequência de um alerta qualificado do painel científico em conformidade com o artigo 90.o, n.o 1, alínea a).

2.   A Comissão pode decidir nomear peritos independentes para realizar avaliações em seu nome, incluindo peritos do painel científico criado nos termos do artigo 68.o. Os peritos independentes nomeados para exercer esta atribuição devem satisfazer os critérios enunciados no artigo 68.o, n.o 2.

3.   Para efeitos do n.o 1, a Comissão pode solicitar o acesso ao modelo de IA de finalidade geral em causa através IPA ou de outros meios e ferramentas técnicas adequadas, incluindo o código-fonte.

4.   O pedido de acesso indica a base jurídica, a finalidade e os motivos do pedido e fixa o prazo em que o acesso deve ser concedido, e as coimas previstas no artigo 101.o por não disponibilização do acesso.

5.   Os prestadores do modelo de IA de finalidade geral em causa ou o seu representante, presta as informações solicitadas. No caso de pessoas coletivas, empresas ou associações de empresas, ou, caso os prestadores não tenham personalidade jurídica, as pessoas autorizadas a representá-las nos termos da lei ou dos respetivos estatutos, disponibilizam o acesso solicitado em nome do prestador do modelo de IA de finalidade geral em causa.

6.   A Comissão adota atos de execução que estabelecem as modalidades pormenorizadas e as condições das avaliações, incluindo as modalidades pormenorizadas da participação de peritos independentes, e o procedimento de seleção destes últimos. Os referidos atos de execução são adotados de acordo com o procedimento de exame a que se refere o artigo 98.o, n.o 2.

7.   Antes de solicitar o acesso ao modelo de IA de finalidade geral em causa, o Serviço para a IA pode iniciar um diálogo estruturado com o prestador do modelo de IA de finalidade geral para recolher mais informações sobre as testagens internas do modelo, as salvaguardas internas para prevenir riscos sistémicos e outros procedimentos e medidas internos que o prestador tenha tomado para atenuar esses riscos.

Frequently Asked Questions

As autoridades podem decidir avaliar um modelo de inteligência artificial quando precisam verificar o cumprimento das regras ou investigar possíveis riscos sistémicos importantes. Estas avaliações acontecem especialmente se as informações recolhidas forem insuficientes, ou quando houver alertas importantes recebidos do painel científico indicando potenciais problemas de segurança ou conformidade que possam afetar toda a União Europeia.
Se um prestador recusa disponibilizar o acesso solicitado ao seu modelo de inteligência artificial, pode enfrentar penalidades especificadas na lei. O pedido de acesso inclui claramente as razões legais para a avaliação, o objetivo da solicitação e descreve as multas aplicáveis em caso de recusa ou incumprimento dentro dos prazos estipulados pelas autoridades competentes.
A Comissão pode solicitar diretamente o acesso ao modelo de inteligência artificial, incluindo o seu código-fonte, através da utilização de plataformas, ferramentas técnicas específicas ou através de outros meios adequados. Antes da solicitação, pode iniciar um diálogo estruturado com o prestador para obter informações prévias sobre testes, procedimentos internos e medidas para reduzir riscos sistémicos.
Sim, a Comissão tem autoridade para nomear especialistas externos independentes, incluindo especialistas do painel científico, para realizar avaliações aos modelos em seu nome. Estes especialistas externos são escolhidos com base em critérios definidos na legislação, garantindo assim a imparcialidade e objetividade na análise e mitigação dos possíveis riscos associados aos modelos de IA investigados.

Literacia no domínio da IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!