A Inteligência Artificial (“IA”) deixou de ser uma mera curiosidade e passou a assumir uma presença constante no nosso quotidiano, tornando-se cada vez mais uma realidade atual. Em Portugal, a IA está a redefinir o mundo empresarial, desempenhando um papel de aliada estratégica para a otimização dos processos, tomada de decisões e redução dos custos, tornando as organizações mais eficientes, ágeis e competitivas. Contudo, a sua utilização generalizada levanta novas questões éticas e jurídicas que carecem de regulação e respetiva regulamentação.
Para lhes dar resposta, a União Europeia aprovou o Regulamento Inteligência Artificial[1] – denominado AI Act –, o primeiro quadro jurídico em matéria de IA à escala internacional, com o objeto de assegurar uma IA ética, responsável e segura. Este Regulamento aplica-se a qualquer empresa que desenvolva, integre ou utilize serviços ou produtos de IA na União Europeia, independentemente de se encontrar sediada na União Europeia ou não.
O Regulamento entrou em vigor a 1 de agosto de 2024, sendo a sua aplicação faseada no tempo, estando a sua aplicação plena prevista para o dia 2 de agosto de 2026. Contudo, desde 2 de fevereiro de 2025 que se passaram a aplicar os seus dois primeiros capítulos, relativos às práticas proibidas. A este propósito, é de salientar que o Regulamento adota uma abordagem baseada no risco, tendo criado quatro níveis de risco[2] para os sistemas de IA e estabelecendo regras diferentes em conformidade.
No topo da pirâmide, situam-se as práticas proibidas que integram a categoria de risco inaceitável, as quais se encontram previstas no art. 5.º, n.º 1 do AI Act:
- Manipulação e exploração de vulnerabilidades – als. a) e b);
- Avaliação ou classificação social (social scoring) geral – al. c);
- Avaliação de risco de infração – al. d);
- Criação de bases de dados de reconhecimento facial – al. e)
- Sistemas de reconhecimento de emoções no local de trabalho ou ensino – al. f)
- Sistemas de categorização com base em dados biométricos – al. g)
- Casos especiais de identificação biométrica em tempo real – al. h)[3]
A partir de 2 de agosto de 2025, o incumprimento destas regras poderá sujeitar as empresas à aplicação de coimas num montante até 35 milhões de euros ou até 7% do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado, sem prejuízo de a supervisão dos sistemas poder ser já realizada por se encontrar em desconformidade.
Neste sentido, é crucial que as empresas que ainda não o fizeram iniciem, sem demora, o trabalho preparatório indispensável ao cumprimento das normas impostas pelo Regulamento Inteligência, por forma a aproveitarem as oportunidades criadas pelos sistemas de IA e, em simultâneo, garantindo práticas éticas e a observância integral do Regulamento.
[1] Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho de 13 de junho de 2024
[2] Risco inaceitável (Capítulo II do AI Act); Risco elevado (Capítulo III e Anexos I e III do AI Act); Risco limitado (Capítulo IV do AI Act); e Risco mínimo (restantes sistemas de IA que podem ser desenvolvidos e utilizados de acordo com a legislação existente, sem obrigações jurídicas adicionais).
[3] Esta lista não é taxativa, podendo existir outras práticas consideradas proibidas ou ilícitas (art. 5.º, n.º 8 do AI Act).
.