AI ACT
LEI DA INTELIGÊNCIA ARTIFICIAL (AI Act)
Breve contextualização teórica ⌘
A Lei da Inteligência Artificial (IA), designada em lígua inglesa “AI Act” é um regulamento criado pela União Europeia (UE) que estabelece um quadro jurídico para IA:
A Lei da IA tem o propósito de garantir que os sistemas de IA sejam desenvolvidos e utilizados de forma responsável e de proteger os direitos fundamentais das pessoas. A Lei da IA aplica-se a todos os países da UE e regula a autorização de sistemas de IA no mercado único da UE.
A Lei de IA estabelece requisitos e obrigações claros para desenvolvedores e implantadores de IA. Esses requisitos incluem:
1. Categorias de risco: A Lei de IA atribui às aplicações de IA três categorias de risco: inaceitável, alto e mínimo.
2. Transparência: Sistemas como chatbots devem informar claramente aos usuários que estão interagindo com uma máquina.
3. Direitos autorais: A Lei AI inclui regras relacionadas a direitos autorais.
4. Mitigação de riscos: Os fornecedores de modelos que possam acarretar riscos sistémicos devem avaliar e mitigar esses riscos.
5. Identificação biométrica remota: Algumas exceções podem ser permitidas para fins de aplicação da lei.
A Lei AI inclui multas para organizações que forneçam informações incorretas, incompletas ou enganosas às autoridades, entrou em vigor em 1º de agosto de 2024, com diferentes disposições e faz parte de um pacote mais amplo de medidas políticas que também inclui o Pacote de Inovação em IA e o Plano Coordenado sobre IA.
Os quatro pontos fundamentais da lei da IA ⌘
== I. Classificação da IA de acordo com o seu risco: == ⌘
Riscos inaceitáveis são proibidos (por exemplo, sistemas de pontuação social e IA manipulativa).
A maior parte do texto aborda sistemas de IA de alto risco, que são regulamentados.
Uma secção mais pequena trata de sistemas de IA de risco limitado, sujeitos a obrigações de transparência mais leves: os programadores e os implementadores devem garantir que os utilizadores finais estão cientes de que estão a interagir com a IA (chatbots e deepfakes).
O risco mínimo não é regulamentado (incluindo a maioria dos aplicativos de IA atualmente disponíveis no mercado único da UE, como videogames habilitados para IA e filtros de spam — pelo menos em 2021; isso está em mudança com a IA generativa).
II. Obrigações:
A maioria das obrigações recai sobre provedores (desenvolvedores) de sistemas de IA de alto risco. Aqueles que pretendem colocar no mercado ou colocar em serviço sistemas de IA de alto risco na UE, independentemente de estarem sediados na UE ou num país terceiro. E também provedores de países terceiros onde a saída do sistema de IA de alto risco é usada na UE.
Os utilizadores são pessoas singulares ou coletivas que implementam um sistema de IA a título profissional e não são utilizadores finais afetados. Os utilizadores (implantadores) de sistemas de IA de alto risco têm algumas obrigações, embora menos que os fornecedores (desenvolvedores). Isto aplica-se a utilizadores localizados na UE e a utilizadores de países terceiros onde os resultados do sistema de IA são utilizados na UE.
III. AI de propósito geral (GPAI):
Todos os fornecedores de modelos GPAI devem fornecer documentação técnica, instruções de uso, cumprir a Diretiva de Direitos Autorais e publicar um resumo sobre o conteúdo usado no treinamento.
Os fornecedores de modelos GPAI com licença aberta e gratuita só precisam cumprir os direitos autorais e publicar o resumo dos dados de treinamento, a menos que apresentem um risco sistêmico.
Todos os fornecedores de modelos GPAI que apresentam um risco sistémico – aberto ou fechado – também devem realizar avaliações de modelos, testes adversários, rastrear e reportar incidentes graves e garantir proteções de segurança cibernética.
IV. Sistemas de IA proibidos
Os seguintes tipos de sistema de IA são ‘Proibidos’ de acordo com a Lei de IA:
- Sistemas de IA que utilizem técnicas subliminares, manipulativas ou enganosas para distorcer o comportamento e prejudicar a tomada de decisões informadas, causando danos significativos;
- Sistemas que explorem vulnerabilidades relacionadas com a idade, deficiência ou circunstâncias socioeconómicas para distorcer o comportamento, causando danos significativos;
- Sistemas de categorização biométrica que inferem atributos sensíveis (raça, opiniões políticas, filiação sindical, crenças religiosas ou filosóficas, vida sexual ou orientação sexual), exceto rotulagem ou filtragem de conjuntos de dados biométricos adquiridos legalmente ou quando as autoridades policiais categorizam dados biométricos;
- Sistemas de pontuação social, ou seja, avaliar ou classificar indivíduos ou grupos com base no comportamento social ou características pessoais, causando tratamento prejudicial ou desfavorável a essas pessoas;
- Sistemas que avaliem o risco de um indivíduo cometer infrações penais exclusivamente com base no perfil ou nos traços de personalidade, exceto quando utilizado para complementar avaliações humanas baseadas em fatos objetivos e verificáveis diretamente ligados à atividade criminosa;
- Sistemas que recorram à compilação de bancos de dados de reconhecimento facial por meio da coleta não direcionada de imagens faciais da Internet ou de imagens de CFTV;
- Sistemas que permitam inferir emoções em locais de trabalho ou instituições educacionais, exceto por razões médicas ou de segurança;
- Sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para aplicação da lei, exceto quando os mesmos se destinarem à busca de pessoas desaparecidas, vítimas de sequestro e pessoas que foram traficadas ou exploradas sexualmente, prevenir ameaças substanciais e iminentes à vida ou ataques terroristas previsíveis; ou identificar suspeitos de crimes graves (por exemplo, assassinato, estupro, assalto à mão armada, tráfico de drogas e armas ilegais, crime organizado e crime ambiental, etc.).
REFERÊNCIAS BIBLIOGRÁFICAS
https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.pdf
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai