A regulação da Inteligência Artificial no Brasil está prestes a avançar de forma decisiva. A expectativa é de que o projeto de lei que estabelece o marco legal da IA seja votado pela Câmara dos Deputados já em maio de 2026, após aprovação no Senado.
Esse movimento coloca o país em linha com outras jurisdições que já estruturaram regras específicas para o uso da tecnologia, como a União Europeia. Mais do que um avanço legislativo, trata-se de um sinal claro de que o uso de Inteligência Artificial deixará de ser apenas uma decisão operacional para se tornar uma pauta regulatória e estratégica dentro das empresas.
O ponto mais crítico, no entanto, é o momento em que essa regulação surge. Hoje, a Inteligência Artificial já faz parte da rotina corporativa, seja por meio de ferramentas generativas, automações ou sistemas de análise de dados, frequentemente incorporadas sem uma avaliação estruturada de riscos ou diretrizes claras de uso.
Inspirado em modelos internacionais, como o AI Act europeu, o projeto adota uma abordagem baseada em risco, classificando sistemas de IA conforme o potencial impacto sobre direitos fundamentais e a sociedade. A partir dessa classificação, são previstas obrigações proporcionais, que podem incluir desde requisitos de transparência até avaliações prévias de risco e adoção de medidas de governança mais robustas.
Embora o foco da regulação esteja nos desenvolvedores e fornecedores de tecnologia, seus efeitos alcançam diretamente as empresas que utilizam IA em suas operações. Isso porque a responsabilidade pelo uso adequado dessas ferramentas não se limita à sua criação, mas também à forma como são implementadas e utilizadas no ambiente corporativo.
Nesse cenário, um dos principais desafios é a falta de visibilidade e governança sobre o uso de IA dentro das organizações. Ferramentas são incorporadas ao dia a dia por diferentes áreas, sem mapeamento, sem avaliação de risco e, muitas vezes, sem alinhamento com políticas internas ou requisitos legais. Esse cenário cria uma exposição significativa, especialmente quando envolve tratamento de dados pessoais ou tomada de decisões automatizadas que possam impactar indivíduos.
Além disso, o uso de IA frequentemente envolve o tratamento de dados pessoais, o que traz implicações diretas à Lei Geral de Proteção de Dados (LGPD). Sistemas que processam dados pessoais exigem atenção redobrada quanto à base legal, transparência, segurança e respeito aos direitos dos titulares. A futura regulação tende a aprofundar esse nível de exigência, reforçando a necessidade de integração entre governança de IA e programas de privacidade já existentes.
Diante desse cenário, a principal mudança não está apenas na criação de novas regras, mas na necessidade de uma postura mais estruturada por parte das empresas. A governança em IA passa a ser um tema estratégico, que envolve não apenas tecnologia, mas também jurídico, compliance e gestão de riscos.
Na prática, algumas medidas já podem (e devem) ser consideradas pelas organizações. O primeiro passo é identificar onde e como a IA está sendo utilizada internamente, incluindo ferramentas adotadas por colaboradores no dia a dia. A partir desse mapeamento, torna-se possível avaliar riscos associados, especialmente em relação ao uso de dados pessoais e à possibilidade de decisões automatizadas com impacto relevante.
Outro ponto essencial é a definição de diretrizes claras para o uso de IA, por meio de políticas internas que estabeleçam limites, responsabilidades e boas práticas. Essas diretrizes devem ser acompanhadas de ações de conscientização e treinamento, uma vez que grande parte dos riscos está associada ao uso indevido ou não supervisionado das ferramentas.
Também é recomendável que empresas com maior grau de maturidade avancem na implementação de processos de avaliação de risco e revisão de sistemas de IA, especialmente aqueles classificados como de maior impacto. Esse tipo de iniciativa não apenas contribui para a mitigação de riscos, mas também prepara a organização para atender futuras exigências regulatórias.
Empresas que se anteciparem às regras e obrigações previstas no marco legal da IA estarão mais preparadas para reduzir riscos e demonstrar maior confiança a clientes e parceiros.
Em um cenário em que a adoção da IA avança rapidamente, a ausência de governança pode custar mais caro do que a implementação de controles.