27 Setembro 2024

O AI Act – o primeiro regulamento jurídico que abrange a inteligência artificial e que aborda os riscos associados à mesma – foi aprovado no 3º trimestre deste ano. Este regulamento fornece aos criadores e utilizadores de IA requisitos e obrigações claros, ao mesmo tempo que visa reduzir os encargos administrativos e financeiros, em especial para as pequenas e médias empresas (PME).

Principais condições do AI Act

O AI Act introduz diversas novas regras para dar resposta aos desafios específicos colocados pelos sistemas de inteligência artificial:

  • Abordagem dos riscos específicos da IA: A lei visa os riscos criados pelas aplicações de IA, proibindo práticas que representam riscos inaceitáveis e estabelecendo requisitos claros para aplicações de alto risco
  • Avaliação da conformidade: Os sistemas de IA devem ser submetidos a uma avaliação de conformidade antes de serem colocados em serviço ou colocados no mercado
  • Estrutura de governação: É criada uma estrutura de governação a nível europeu e nacional para garantir a conformidade e a aplicação

AI Act: Uma abordagem baseada no risco

O AI Act define quatro níveis de risco para os sistemas de inteligência artificial:

  1. Risco inaceitável: são proibidos os sistemas de IA que representem uma ameaça clara à segurança, aos meios de subsistência e aos direitos. Isto inclui a pontuação social atribuída pelos governos e os brinquedos que utilizam sistemas de assistência por voz que incentivem comportamentos perigosos.
  2. Alto risco: Os sistemas de IA de alto risco incluem os utilizados em infraestruturas críticas, educação, componentes de segurança de produtos, emprego, serviços essenciais, aplicação da lei, migração e justiça. Estes sistemas estão sujeitos a obrigações rigorosas antes de poderem ser comercializados.
  3. Risco limitado: Os sistemas de IA de risco limitado, como os chatbots, devem cumprir obrigações de transparência específicas para garantir que os utilizadores estão informados quando interagem com a IA.
  4. Risco mínimo ou nulo: Os sistemas de IA com risco mínimo ou nulo, como os jogos de vídeo com IA ou os filtros de spam, podem ser utilizados livremente.

Sistemas de IA de alto risco: Obrigações e requisitos

Os sistemas de IA de alto risco devem cumprir requisitos rigorosos, incluindo:

  • Sistemas adequados de avaliação e mitigação de riscos
  • Conjuntos de dados de alta qualidade para minimizar os riscos e os resultados discriminatórios
  • Registo da atividade para rastreabilidade
  • Documentação pormenorizada para avaliação da conformidade
  • Informação clara aos responsáveis pela implementação
  • Medidas de controlo humano
  • Elevados níveis de robustez, segurança e precisão

Os sistemas de identificação biométrica à distância são considerados de alto risco e estão sujeitos a requisitos rigorosos, sendo a sua utilização em espaços públicos para fins de aplicação da lei geralmente proibida, salvo exceções estritamente definidas e regulamentadas.

Sistemas de IA de risco limitado: Obrigações de transparência

Os sistemas de IA de risco limitado devem garantir a transparência. Por exemplo, os utilizadores devem estar cientes quando interagem com um chatbot ou quando o conteúdo é gerado por IA. Isto promove a confiança e permite que os utilizadores tomem decisões informadas.

Por outro lado, o AI Act permite a livre utilização de sistemas de IA de risco mínimo, o que inclui a maioria das aplicações de IA atualmente utilizadas na UE.

Aplicação e execução do AI Act

Quando um sistema de IA está no mercado, as autoridades supervisionam a vigilância desse mercado, os responsáveis pela implantação asseguram a supervisão e o controlo dos utilizadores e, por fim, os fornecedores mantêm um sistema de monitorização pós-comercialização. Os fornecedores e os responsáveis pela implantação devem comunicar os incidentes graves e as avarias.

Utilização fiável de grandes modelos de IA

Os modelos de IA de uso geral, que podem executar e adaptar-se a várias tarefas, estão a tornar-se mais comuns. O regulamento AI Act introduz obrigações de transparência e requisitos adicionais de gestão dos riscos para estes modelos, incluindo a autoavaliação, a atenuação dos riscos, a comunicação de incidentes, os testes e as medidas de cibersegurança.

Qual é o papel do Gabinete Europeu de IA?

Criado em fevereiro de 2024, o Gabinete Europeu de IA supervisiona a aplicação e a execução do regulamento AI Act. O objetivo é criar um ambiente nas quais as tecnologias de IA respeitem a dignidade humana, os direitos e a confiança. O Gabinete promove a colaboração, a inovação e a investigação no domínio da IA, participa no diálogo internacional e esforça-se por posicionar a Europa como líder na governação ética da IA.

Teresa Marina, International Grants Communication