Artigo 7.º

Alterações ao anexo III

1.   A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar o anexo III, aditando ou modificando casos de utilização de sistemas de IA de risco elevado sempre que estejam preenchidas ambas as seguintes condições:

a)

Os sistemas de IA destinam-se a ser utilizados em qualquer um dos domínios enumerados no anexo III;

b)

Os sistemas de IA representam um risco de danos para a saúde e a segurança ou de repercussões negativas nos direitos fundamentais, e esse risco é equivalente ou superior ao risco de danos ou repercussões negativas representado pelos sistemas de IA de risco elevado já referidos no anexo III.

2.   Ao avaliar a condição prevista no n.o 1, alínea b), a Comissão tem em conta os seguintes critérios:

a)

A finalidade prevista do sistema de IA;

b)

O grau de utilização efetiva ou a probabilidade de utilização de um sistema de IA;

c)

A natureza e a quantidade dos dados tratados e utilizados pelo sistema de IA e, em particular, o facto de serem tratadas categorias especiais de dados pessoais;

d)

A medida em que o sistema de IA atua de forma autónoma e a possibilidade de um ser humano anular decisões ou recomendações que possam causar danos;

e)

A medida em que a utilização de um sistema de IA já tenha causado danos para a saúde e a segurança, tenha tido repercussões negativas nos direitos fundamentais ou tenha suscitado preocupações significativas quanto à probabilidade de esses danos ou essas repercussões negativas ocorrerem, conforme demonstrado, por exemplo, por relatórios ou alegações documentadas apresentados às autoridades nacionais competentes, ou por outros relatórios, consoante o caso;

f)

A potencial dimensão desses danos ou dessas repercussões negativas, nomeadamente em termos de intensidade e de capacidade para afetar várias pessoas, ou para afetar de forma desproporcionada um determinado grupo de pessoas;

g)

A medida em que as pessoas que sofreram potenciais danos ou repercussões negativas dependem dos resultados produzidos por um sistema de IA, em especial se, por razões práticas ou jurídicas, não lhes for razoavelmente possível autoexcluir-se desse resultado;

h)

A medida em que existe um desequilíbrio em termos de poder ou em que as pessoas que sofreram potenciais danos ou repercussões negativas se encontram numa posição vulnerável em relação ao responsável pela implantação de um sistema de IA, em particular por motivos relacionados com o estatuto, a autoridade, o conhecimento, as circunstâncias económicas ou sociais, ou a idade;

i)

A medida em que os resultados produzidos com o envolvimento de um sistema de IA são facilmente corrigíveis ou reversíveis, tendo em conta as soluções técnicas disponíveis para os corrigir ou reverter, sendo que os resultados com uma repercussão negativa na saúde, na segurança ou nos direitos fundamentais não podem ser considerados como facilmente corrigíveis ou reversíveis;

j)

A magnitude e a probabilidade dos benefícios da implantação do sistema de IA para as pessoas, os grupos ou a sociedade em geral, incluindo possíveis melhorias na segurança dos produtos;

k)

A medida em que o direito da União em vigor prevê:

i)

medidas de reparação eficazes em relação aos riscos representados por um sistema de IA, com exclusão de pedidos de indemnização,

ii)

medidas eficazes para prevenir ou minimizar substancialmente esses riscos.

3.   A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar a lista do anexo III suprimindo sistemas de IA de risco elevado sempre que estejam preenchidas ambas as seguintes condições:

a)

O sistema de IA de risco elevado em causa deixa de representar um risco significativo para os direitos fundamentais, a saúde ou a segurança, tendo em conta os critérios enumerados no n.o 2;

b)

A supressão não diminui o nível geral de proteção da saúde, da segurança e dos direitos fundamentais ao abrigo do direito da União.

Frequently Asked Questions

Quando a Comissão Europeia avalia um sistema de inteligência artificial para decidir se é de alto risco, considera diversos fatores, como seu propósito específico, a frequência de uso, o tipo e quantidade dos dados envolvidos, quão autônomo o sistema é, se já causou danos antes e se os resultados podem ser facilmente revertidos, entre outros critérios importantes.
Sim, a Comissão Europeia pode modificar a lista de sistemas de inteligência artificial considerados de alto risco por meio de atos delegados, desde que os novos sistemas cumpram dois critérios básicos: estejam em áreas já especificadas no regulamento e representem riscos iguais ou maiores do que aqueles já classificados como altos.
Sim, um sistema pode ser retirado da categoria de alto risco se deixar claramente de representar perigo significativo à saúde, segurança ou aos direitos fundamentais, levando-se em conta os critérios definidos pela Comissão, desde que essa exclusão não reduza o nível geral de proteção na União Europeia.
Um sistema de inteligência artificial classificado como alto risco poderia prejudicar a saúde e a segurança das pessoas ou impactar negativamente seus direitos fundamentais, afetando diversos indivíduos ou grupos, especialmente se essas pessoas dependem dos resultados gerados pelo sistema e têm dificuldade em questionar ou evitar esses resultados.

Literacia no domínio da IA

Book Demo

We will get back to you via email as soon as possible.