Como o Brasil pode regular a IA sem abrir mão da sua identidade
Relatório da Data Privacy Brasil aponta caminhos para uma regulação que promova inovação com justiça e responsabilidade
A inteligência artificial não pode mais ser tratada como um território livre de regras. O uso não regulado dessa tecnologia já apresenta riscos concretos aos direitos fundamentais, à democracia, ao meio ambiente e ao Estado de Direito.
A ideia de que a regulação atrapalha a inovação é, segundo o novo relatório da Data Privacy Brasil, um falso dilema. O que está em jogo é construir uma inovação responsável — aquela que respeita direitos e evita reforçar desigualdades.
NA PRENSA TECH DE HOJE:
Por que precisamos falar de regulação da IA?
O uso não regulado da inteligência artificial (IA) tem gerado preocupações crescentes devido aos riscos concretos que representa para direitos fundamentais, a democracia, o meio ambiente e o próprio Estado de Direito. Em resposta a esses desafios, tem se intensificado um movimento global pela criação de marcos regulatórios — tanto vinculantes (hard law) quanto orientativos (soft law) — em diferentes esferas de atuação.
Para compreender esse cenário em transformação, a Data Privacy Brasil analisou mais de 20 fontes normativas internacionais, regionais e locais, concentrando-se em três eixos considerados centrais: a regulação baseada no risco, as avaliações de impacto algorítmico (AIA) e as implicações da IA generativa. O estudo também dedicou um capítulo específico às particularidades do contexto brasileiro, reconhecendo a necessidade de uma abordagem regulatória sensível às vulnerabilidades e desafios locais.
O estudo destaca que há uma convergência global para adotar modelos de regulação baseada em risco, nos quais o grau de exigência varia conforme o potencial de impacto do sistema de IA. Essa abordagem, cada vez mais comum em legislações internacionais, muitas vezes se combina com uma perspectiva afirmativa de direitos, ou seja, que coloca a proteção de pessoas e grupos vulneráveis no centro das decisões regulatórias.
Outro pilar central nas propostas analisadas é a avaliação de impacto algorítmico (AIA) — uma ferramenta que ajuda a dar transparência, promover participação pública e identificar riscos e benefícios antes que a tecnologia seja implementada. A maioria das normas analisadas estabelece um mínimo procedural para essas avaliações, com foco em grupos potencialmente invisibilizados e na mitigação de danos.
O que o relatório revela sobre os modelos em discussão?
Falso trade-off: A ideia de que regulação atrapalha a inovação é equivocada; o objetivo das propostas é fomentar inovação responsável, que respeite direitos.
Abordagem baseada em risco: Há convergência entre as normas analisadas no uso de modelos assimétricos — sistemas de IA de maior risco exigem maior grau de regulação. Essa abordagem se combina, em muitos casos, com uma visão afirmativa de direitos (rights-based approach).
Modelos híbridos de regulação: A maioria das propostas adota uma forma de corregulação — combinando papel estatal com incentivos para autorregulação proativa por parte das empresas, com espaço para maior controle democrático e engajamento social.
Avaliações de Impacto Algorítmico (AIA): São amplamente adotadas como medida de governança. Devem seguir um tripé:
Publicidade dos relatórios.
Participação pública com ênfase em grupos vulneráveis.
Análise ampla de riscos e benefícios, incluindo direitos sociais e ambientais.
IA Generativa: Apesar dos desafios regulatórios, é possível governar esse tipo de IA por meio de critérios que considerem riscos esperados, responsabilidades na cadeia produtiva e governança contínua.
Interoperabilidade regulatória: As normas globais estão começando a convergir, mas o Brasil precisa evitar uma importação acrítica. A regulação nacional deve endereçar desafios próprios, como o combate ao racismo algorítmico e outras desigualdades estruturais.
Como o Brasil pode adaptar essas diretrizes ao seu contexto?
O PL 2338/2023, formulado pela Comissão de Juristas, é o que mais se alinha aos padrões internacionais:
Aborda riscos de forma dinâmica.
Procedimentaliza as AIAs para sistemas de alto risco.
Considera vulnerabilidades sociais (raça, idade etc.).
A proposta permite que o Brasil avance rumo a uma regulação interoperável, mas sem abrir mão de uma perspectiva emancipadora, enraizada nos valores constitucionais do país.
No Brasil, o Projeto de Lei 2338/2023 dialoga com essas tendências ao propor uma regulação baseada em risco e centrada no ser humano. Mas o relatório alerta: é essencial adaptar os modelos globais à realidade local, evitando um transplante normativo que ignore desafios típicos do país, como o racismo estrutural. O objetivo deve ser uma regulação emancipadora, não uma nova forma de colonização regulatória.
Essa foi a sua Prensa Tech de hoje! Até segunda que vem! 🧑💻