O mundo vive uma virada regulatória da Inteligência Artificial (IA), semelhante ao impacto que o GDPR teve na proteção de dados em 2018. O movimento atual busca consolidar um marco jurídico global baseado em segurança, transparência e responsabilidade no uso de algoritmos — um debate não apenas técnico, mas também econômico e estratégico.
A União Europeia lidera essa transformação com o AI Act, aprovado em 2024 e aplicável a partir de 2026. É a primeira lei horizontal sobre IA no mundo, estruturada em uma abordagem baseada em risco. Os sistemas são classificados em quatro níveis — proibidos, de alto, limitado e mínimo risco. São vetadas aplicações como manipulação subliminar, social scoring e vigilância biométrica em tempo real. Já as de alto risco, como as usadas em crédito, saúde e segurança pública, exigem documentação técnica, registro, testes e explicabilidade. As penalidades podem chegar a 7% do faturamento global da empresa, o que cria um modelo robusto de governança algorítmica.
Nos Estados Unidos, o cenário é mais fragmentado. Sem uma lei federal específica, estados como Califórnia e Nova York avançam com normas próprias, enquanto o NIST publicou o AI Risk Management Framework, hoje referência internacional. A abordagem americana é menos prescritiva e privilegia a inovação e a autorregulação, com foco em princípios éticos e responsabilidade de mercado. Já a China adota um modelo centralizado e securitário: a regulação integra cibersegurança e controle de conteúdo, impondo licenças para modelos generativos e remoção de conteúdos considerados falsos ou desestabilizadores. A lógica é de controle informacional e estabilidade social — distinta da europeia, centrada em direitos, e da americana, orientada à liberdade de inovação.
Na América Latina, a regulação avança de forma desigual. O Chile e o México discutem projetos de lei, e Colômbia e Argentina criam estratégias éticas. O Brasil se destaca com o Projeto de Lei nº 2.338/2023, inspirado no AI Act, que define princípios de transparência, prevenção de discriminação e supervisão humana. O texto classifica sistemas por grau de risco e prevê uma Autoridade Nacional de IA, além de incentivar certificações e sandboxes regulatórios para inovação responsável.
Enquanto o novo marco não é aprovado, o país se apoia em normas como a LGPD, o Marco Civil da Internet e o Código de Defesa do Consumidor. A LGPD, em especial, já impõe regras relevantes à IA, como base legal para tratamento de dados, direito à revisão de decisões automatizadas e exigência de medidas de segurança. Assim, mesmo sem lei específica, há uma regulação difusa que já responsabiliza empresas que utilizam algoritmos com impacto sobre indivíduos.
Para o setor privado, o desafio é claro: não basta proteger dados, é preciso governar algoritmos. As empresas terão de adotar governança multidisciplinar, documentar datasets, testar vieses e revisar contratos envolvendo IA. A tendência global é a criação de avaliações de impacto (AI Impact Assessments) e certificações que atestem ética e explicabilidade. O jurídico passa, assim, a ter papel estratégico na inovação, apoiando a conformidade e a reputação corporativa. Referências como o NIST AI RMF, a ISO 42001 e os princípios da OCDE tornam-se guias práticos para antecipar obrigações regulatórias.
A IA representa, ao mesmo tempo, oportunidade e risco jurídico. Ela potencializa eficiência e competitividade, mas amplia chances de erro, discriminação e opacidade. A regulação busca equilibrar liberdade para inovar e responsabilidade para explicar. Nesse novo cenário, a confiança — sustentada por transparência, ética e governança — será o maior ativo competitivo.
Lorena Botelho, advogada da área da tecnologia e da informação e sócia do Urbano Vitalino Advogados