Novas Normas da UE para Modelos de IA de Acesso Geral Entram em Vigor
A partir de hoje, fornecedores de modelos de IA de uso geral na União Europeia devem seguir novas diretrizes de segurança e transparência, incluindo a adaptação de modelos já existentes até 2027.

A União Europeia deu início, a partir de hoje, à implementação de novas normas que regulamentam os modelos de Inteligência Artificial (IA) de acesso geral, como o assistente virtual ChatGPT. Estas diretrizes visam garantir segurança e transparência na utilização deste tipo de tecnologia, que é cada vez mais acessível ao público.
Os modelos de IA em questão são aqueles projetados para serem amplamente utilizados, destacando-se pela sua acessibilidade e capacidade de realizar uma variedade de tarefas. Exemplos notáveis incluem o ChatGPT, o Google Gemini, o Claude da Anthropic e modelos da Mistral, todos conhecidos pela sua capacidade de gerar linguagem, traduzir, responder a perguntas e até auxiliar na programação.
A partir de agora, os novos fornecedores que introduzirem modelos de IA no mercado devem seguir estas novas regras de documentação e segurança, assim como garantir a conformidade com direitos de autor e realizar avaliações de risco adequadas. Para aqueles que lidam com modelos identificados como de risco sistémico, existe também a obrigação de informar um gabinete criado pela Comissão Europeia, visando a mitigação desses riscos.
Modelos já existentes terão até 02 de agosto de 2027 para se adaptarem às novas exigências. No caso específico do ChatGPT, a OpenAI terá um período adicional de dois anos para total conformidade, com recomendações da UE para que a empresa adote imediatamente as diretrizes existentes como um passo preparatório.
A lei da IA, introduzida na UE em agosto de 2024, representa a primeira legislação global para esta tecnologia, com o objetivo de proteger os direitos fundamentais no espaço europeu. Embora nem todas as disposições estejam completamente aplicáveis ainda, o regulamento estabelece obrigações para a IA com base no seu potencial de risco e impacto, proibindo certas aplicações e limitando o uso de sistemas de identificação biométrica pelas forças de segurança. Também prevê sanções para infrações.