Em 1º de agosto de 2024, o Ato de Inteligência Artificial da União Europeia (AI Act) entrou em vigor, estabelecendo um marco na regulamentação global da IA. Este ato é a primeira tentativa abrangente de regular a inteligência artificial, incluindo sistemas avançados e de propósito geral, refletindo a crescente importância dessas tecnologias.
Abordagem Baseada em Risco
O AI Act adota uma abordagem baseada em risco, categorizando as aplicações de IA em quatro níveis principais:
- Risco Inaceitável: Aplicações que manipulam decisões, exploram vulnerabilidades ou avaliam comportamentos sociais são proibidas. Exemplos incluem sistemas de pontuação social e alguns usos de IA em segurança pública.
- Alto Risco: Sistemas que podem impactar significativamente a segurança ou os direitos fundamentais das pessoas, como reconhecimento facial, software médico e aplicações em educação e emprego, devem cumprir exigências rigorosas de conformidade, incluindo avaliações de risco, documentação técnica e auditorias regulares. Sistemas de alto risco usados por autoridades públicas ou seus fornecedores devem ser registrados em um banco de dados da UE.
- Risco Limitado: Tecnologias como chatbots e ferramentas que podem criar deepfakes devem atender a requisitos de transparência para garantir que os usuários saibam que estão interagindo com uma IA e que o conteúdo foi gerado artificialmente.
- Risco Mínimo: A maioria das aplicações de IA é considerada de baixo ou nenhum risco e, portanto, não está sujeita a regulamentação específica.
Regras para Modelos de IA de Propósito Geral (GPAIs)
Os desenvolvedores de GPAIs enfrentam obrigações específicas:
- Manter documentação técnica atualizada, incluindo processos de treinamento e testes.
- Cooperar com a Comissão Europeia e autoridades nacionais competentes.
- Respeitar leis de direitos autorais e direitos conexos.
Modelos com risco sistêmico devem realizar avaliações padronizadas, gerenciar riscos e garantir proteção cibernética robusta. A Comissão Europeia publicará e atualizará regularmente uma lista desses modelos.
Prazos de Implementação
A implementação será faseada, com prazos importantes:
- 1 de fevereiro de 2025: Proibição de sistemas de IA considerados de risco inaceitável.
- 2 de agosto de 2025: Publicação de códigos de prática para GPAIs pela AI Office da UE.
- 2 de agosto de 2026: Entrada em vigor das obrigações de conformidade para sistemas de alto risco e início da aplicação de penalidades.
Penalidades para Não-Conformidade
As penalidades para violação são severas:
- Multas de até 35 milhões de euros ou 7% do faturamento global anual para infrações relacionadas a práticas proibidas.
- Multas de até 15 milhões de euros ou 3% do faturamento global anual para outras violações.
- Multas de até 7,5 milhões de euros ou 1% do faturamento global anual por fornecer informações incorretas ou enganosas às autoridades reguladoras.
Impacto Global e Preparação das Empresas
O AI Act aplica-se globalmente, impactando qualquer entidade que coloque sistemas de IA no mercado da UE. Empresas devem implementar programas de conformidade com IA, estabelecendo uma estrutura de governança, avaliando o uso atual de IA e desenvolvendo políticas e procedimentos robustos.
Empresas devem:
- Conduzir auditorias internas de sistemas de IA.
- Desenvolver um plano para atender aos requisitos de transparência, como informar usuários sobre interações com IA e rotular conteúdo gerado por IA.
- Garantir que sistemas de alto risco cumpram rigorosamente as regulamentações.
Conclusão
O AI Act da UE representa um avanço significativo na regulamentação da IA, estabelecendo padrões que provavelmente se tornarão benchmarks globais. Empresas que operam no mercado europeu ou que oferecem produtos e serviços de IA devem estar preparadas para cumprir exigências rigorosas de conformidade, garantindo que suas tecnologias sejam seguras, transparentes e responsáveis.