Artigo 27.º

Avaliação de impacto dos sistemas de IA de risco elevado sobre os direitos fundamentais

1.   Antes de implementarem um sistema de IA de risco elevado a que se refere o artigo 6.o, n.o 2, à exceção dos sistemas de IA de risco elevado destinados a ser utilizados nos domínios enumerados no anexo III, ponto 2, os responsáveis pela implantação que sejam organismos de direito público, ou entidades privadas que prestam serviços públicos e responsáveis pela implantação de sistemas de IA de risco elevado a que se refere o anexo III, ponto 5, alíneas b) e c), devem executar uma avaliação do impacto que a utilização desse sistema possa ter nos direitos fundamentais. Para o efeito, os responsáveis pela implantação executam uma avaliação que inclua:

a)

Uma descrição dos processos do responsável pela implantação em que o sistema de IA de risco elevado seja utilizado de acordo com a sua finalidade prevista;

b)

Uma descrição do período em que o sistema de IA de risco elevado se destina a ser utilizado e com que frequência;

c)

As categorias de pessoas singulares e grupos suscetíveis de serem afetados no contexto específico de utilização do sistema;

d)

Os riscos específicos de danos suscetíveis de terem impacto nas categorias de pessoas singulares ou grupos de pessoas identificadas nos termos da alínea c) do presente número, tendo em conta as informações facultadas pelo prestador nos termos do artigo 13.o;

e)

Uma descrição da aplicação das medidas de supervisão humana de acordo com as instruções de utilização;

f)

As medidas a tomar caso esses riscos se materializem, incluindo as disposições relativas à governação interna e aos mecanismos de apresentação de queixas.

2.   A obrigação estabelecida no n.o 1 aplica-se à primeira utilização do sistema de IA de risco elevado. O responsável pela implantação pode, em casos semelhantes, basear-se em avaliações de impacto sobre os direitos fundamentais efetuadas anteriormente ou em avaliações de impacto existentes realizadas pelo prestador. Se, durante a utilização do sistema de IA de risco elevado, o responsável pela implantação considerar que algum dos elementos enumerados no n.o 1 se alterou ou deixou de estar atualizado, deve tomar as medidas necessárias para atualizar as informações.

3.   Uma vez realizada a avaliação de impacto a que se refere o n.o 1 do presente artigo, o responsável pela implantação deve notificar a autoridade de fiscalização do mercado dos resultados da avaliação, apresentando o modelo preenchido a que se refere o n.o 5 do presente artigo como parte da notificação. No caso referido no artigo 46.o, n.o 1, os responsáveis pela implantação podem ser dispensados desta obrigação de notificação.

4.   Se alguma das obrigações previstas no presente artigo já tiver sido cumprida através da avaliação de impacto sobre a proteção de dados realizada nos termos do artigo 35.o do Regulamento (UE) 2016/679 ou do artigo 27.o da Diretiva (UE) 2016/680, a avaliação de impacto sobre os direitos fundamentais a que se refere o n.o 1 do presente artigo deve complementar essa avaliação de impacto sobre a proteção de dados.

5.   O Serviço para a IA deve desenvolver um modelo para um questionário, nomeadamente através de um sistema automatizado, a fim de facilitar aos responsáveis pela implantação o cumprimento simplificado das obrigações do presente artigo.

Frequently Asked Questions

Organismos públicos ou entidades privadas que prestem serviços públicos e utilizem sistemas de inteligência artificial considerados de alto risco devem realizar previamente uma avaliação detalhada do impacto que esses sistemas possam ter sobre os direitos fundamentais das pessoas afetadas, procurando identificar e mitigar eventuais danos e riscos específicos para esses direitos.
Esta avaliação deve incluir uma descrição clara do uso previsto do sistema de inteligência artificial, o período e frequência da sua utilização, quem poderá ser afetado, os danos potenciais identificados, as medidas adotadas para garantir supervisão humana e ações concretas para lidar com eventuais problemas detectados, incluindo possíveis reclamações e mecanismos de gestão interna.
Sim, a avaliação deve ser atualizada se houver mudanças relevantes na forma de utilização, nos grupos afetados ou se forem identificados novos riscos ou dados desatualizados em relação à situação original, assegurando assim que esteja sempre alinhada à realidade durante todo o tempo de utilização do sistema de inteligência artificial.
Sim, o chamado Serviço para a Inteligência Artificial criará um modelo padrão, incluindo um questionário eletrônico, que simplifica e agiliza o processo, permitindo que as entidades responsáveis preenchem facilmente os requisitos exigidos pelas autoridades e cumpram as obrigações previstas sem dificuldades na implementação prática.

Literacia no domínio da IA

Get Started within 24 hours.

Once you have submitted your details, you’ll be our top priority!