O Ato de Inteligência Artificial da União Europeia (AI Act): Uma Nova Era de Regulação

AI act Uniao europeia
Ai Act União Europeia

Em 1º de agosto de 2024, o Ato de Inteligência Artificial da União Europeia (AI Act) entrou em vigor, estabelecendo um marco na regulamentação global da IA. Este ato é a primeira tentativa abrangente de regular a inteligência artificial, incluindo sistemas avançados e de propósito geral, refletindo a crescente importância dessas tecnologias.

Abordagem Baseada em Risco

O AI Act adota uma abordagem baseada em risco, categorizando as aplicações de IA em quatro níveis principais:

  1. Risco Inaceitável: Aplicações que manipulam decisões, exploram vulnerabilidades ou avaliam comportamentos sociais são proibidas. Exemplos incluem sistemas de pontuação social e alguns usos de IA em segurança pública.
  2. Alto Risco: Sistemas que podem impactar significativamente a segurança ou os direitos fundamentais das pessoas, como reconhecimento facial, software médico e aplicações em educação e emprego, devem cumprir exigências rigorosas de conformidade, incluindo avaliações de risco, documentação técnica e auditorias regulares. Sistemas de alto risco usados por autoridades públicas ou seus fornecedores devem ser registrados em um banco de dados da UE.
  3. Risco Limitado: Tecnologias como chatbots e ferramentas que podem criar deepfakes devem atender a requisitos de transparência para garantir que os usuários saibam que estão interagindo com uma IA e que o conteúdo foi gerado artificialmente.
  4. Risco Mínimo: A maioria das aplicações de IA é considerada de baixo ou nenhum risco e, portanto, não está sujeita a regulamentação específica.

Regras para Modelos de IA de Propósito Geral (GPAIs)

Os desenvolvedores de GPAIs enfrentam obrigações específicas:

  • Manter documentação técnica atualizada, incluindo processos de treinamento e testes.
  • Cooperar com a Comissão Europeia e autoridades nacionais competentes.
  • Respeitar leis de direitos autorais e direitos conexos.

Modelos com risco sistêmico devem realizar avaliações padronizadas, gerenciar riscos e garantir proteção cibernética robusta. A Comissão Europeia publicará e atualizará regularmente uma lista desses modelos.

Prazos de Implementação

A implementação será faseada, com prazos importantes:

  • 1 de fevereiro de 2025: Proibição de sistemas de IA considerados de risco inaceitável.
  • 2 de agosto de 2025: Publicação de códigos de prática para GPAIs pela AI Office da UE.
  • 2 de agosto de 2026: Entrada em vigor das obrigações de conformidade para sistemas de alto risco e início da aplicação de penalidades.

Penalidades para Não-Conformidade

As penalidades para violação são severas:

  • Multas de até 35 milhões de euros ou 7% do faturamento global anual para infrações relacionadas a práticas proibidas.
  • Multas de até 15 milhões de euros ou 3% do faturamento global anual para outras violações.
  • Multas de até 7,5 milhões de euros ou 1% do faturamento global anual por fornecer informações incorretas ou enganosas às autoridades reguladoras.

Impacto Global e Preparação das Empresas

O AI Act aplica-se globalmente, impactando qualquer entidade que coloque sistemas de IA no mercado da UE. Empresas devem implementar programas de conformidade com IA, estabelecendo uma estrutura de governança, avaliando o uso atual de IA e desenvolvendo políticas e procedimentos robustos.

Empresas devem:

  • Conduzir auditorias internas de sistemas de IA.
  • Desenvolver um plano para atender aos requisitos de transparência, como informar usuários sobre interações com IA e rotular conteúdo gerado por IA.
  • Garantir que sistemas de alto risco cumpram rigorosamente as regulamentações.

Conclusão

O AI Act da UE representa um avanço significativo na regulamentação da IA, estabelecendo padrões que provavelmente se tornarão benchmarks globais. Empresas que operam no mercado europeu ou que oferecem produtos e serviços de IA devem estar preparadas para cumprir exigências rigorosas de conformidade, garantindo que suas tecnologias sejam seguras, transparentes e responsáveis.

Posts relacionados

WhatsApp
X
Facebook
LinkedIn
Telegram
Threads
Email