O Brasil Vai Regular a IA em 2026?
O que o Marco Legal Significa para Você, sua Empresa e seu Emprego
O PL 2338/2023 passou pelo Senado em dezembro de 2024 e tramita na Câmara em 2026. Pode ser a lei mais importante para o seu negócio — e a maioria das empresas brasileiras ainda não sabe o que está por vir. Este guia explica o que é, como funciona, o que muda e o que você precisa fazer antes da aprovação.
🎨 Imagem: Algoritmo Diário / DALL-E 3
- 01 Por que isso importa agora (e não daqui a 5 anos)
- 02 O que é o PL 2338/2023 — Marco Legal da IA
- 03 Os 4 níveis de risco: sua empresa está em qual?
- 04 Brasil vs. UE: como o Marco Legal se compara ao AI Act
- 05 Impacto prático: casos reais no Brasil
- 06 Guia prático: o que fazer antes da aprovação
- 07 O futuro: o que esperar após a aprovação
- 08 Perguntas Frequentes
Por que isso importa agora (e não daqui a 5 anos)
Existe um padrão que se repete sempre que uma regulação importante está prestes a ser aprovada: a maioria das empresas descobre o que mudou depois que mudou. Foi assim com a LGPD, foi assim com o Marco Civil da Internet, e está sendo assim com o Marco Legal da Inteligência Artificial. A diferença desta vez é que o impacto potencial é muito mais amplo — afeta qualquer empresa que use IA em decisões que afetam pessoas.
Isso não é uma categoria pequena. Inclui chatbots de atendimento, sistemas de crédito, algoritmos de RH, ferramentas de análise de saúde, plataformas de segurança com reconhecimento facial, modelos de precificação dinâmica. Se você usa qualquer dessas tecnologias — ou planeja usar — o PL 2338/2023 é sobre você.
O PL 2338/2023 foi aprovado pelo Plenário do Senado Federal em dezembro de 2024 e encaminhado à Câmara dos Deputados em março de 2025. Na Câmara, uma Comissão Especial analisa o texto desde abril de 2025. A previsão de votação é para 2026 — mas como o texto deve sofrer alterações, ele retornará ao Senado para nova análise. A aprovação definitiva pode ser um processo de meses. Prepare-se com antecedência, não na última hora.
O que é o PL 2338/2023 — Marco Legal da IA
Proposto pelo Senador Rodrigo Pacheco em maio de 2023, o PL 2338/2023 é a principal resposta legislativa brasileira à necessidade de regular inteligência artificial. Seu objetivo central, conforme a ementa: "dispor sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana."
Na prática, o projeto cria um arcabouço regulatório baseado em risco — quanto maior o potencial de dano de um sistema de IA, maiores as obrigações de quem o desenvolve ou usa. É uma abordagem inspirada no AI Act da União Europeia, mas com características próprias, como a inclusão de regras sobre direitos autorais de criadores cujas obras treinaram modelos de IA.
O projeto também prevê a criação do SIA (Sistema Nacional para Desenvolvimento, Regulação e Governança de IA), coordenado pela ANPD (Autoridade Nacional de Proteção de Dados), além de instâncias consultivas como o CRIA (Comitê de Regulação e Inovação em IA), CECIA (Comitê de Especialistas e Cientistas de IA) e CBIA (Conselho Brasileiro de Inteligência Artificial).
A LGPD regula dados pessoais — inclusive quando usados em sistemas de IA. O Marco Legal da IA vai além: cobre viés algorítmico, explicabilidade de decisões, aplicações de alto risco sem dados pessoais, e direitos autorais de criadores. São complementares, não substitutos. Empresas que já operam em conformidade com a LGPD têm uma base sólida — mas precisarão de camadas adicionais de governança para o Marco Legal da IA.
Os 4 níveis de risco: sua empresa está em qual?
O coração do Marco Legal é a classificação de sistemas de IA por nível de risco. Essa classificação determina as obrigações específicas que se aplicam a cada empresa — desde transparência básica até avaliação de impacto algorítmico completa.
| Nível de Risco | Exemplos de aplicações | Principais obrigações |
|---|---|---|
| 🔴 Risco Excessivo (proibido) | Sistemas de controle social por pontuação, manipulação subliminar, categorização por raça/religião/orientação | Proibido — uso vedado no Brasil |
| 🟠 Alto Risco | IA em crédito, saúde, recrutamento, segurança pública, educação, infraestrutura crítica | Avaliação de impacto algorítmico, auditabilidade, transparência, revisão humana obrigatória |
| 🟡 Risco Limitado | Chatbots, deepfakes identificados, sistemas de recomendação de conteúdo | Obrigação de informar ao usuário que está interagindo com IA |
| 🟢 Baixo Risco | Filtros de spam, autocompletar, jogos com IA, tradutores | Código de conduta voluntário; sem obrigações formais específicas |
Se você usa IA para análise de crédito, triagem de currículos, atendimento médico, precificação que afeta consumidores ou segurança com reconhecimento facial — sua aplicação é de alto risco segundo o PL. Isso implica obrigações significativas: avaliação de impacto algorítmico, documentação técnica, canal de contestação para usuários, e auditabilidade. Não é uma surpresa para preparar na última hora.
O PL lista aplicações que serão proibidas no Brasil: sistemas de pontuação social que restrinjam direitos com base em comportamento (como o sistema de crédito social da China), técnicas de manipulação subliminar que contornem a consciência do usuário, e categorização de pessoas por raça, religião, opiniões políticas ou orientação sexual para finalidades discriminatórias. Quem implementar esses sistemas estará sujeito às sanções mais severas da lei.
Brasil vs. UE: como o Marco Legal se compara ao AI Act
| Aspecto | AI Act (UE) | PL 2338 (Brasil) |
|---|---|---|
| Abordagem | Baseada em risco, prescritiva | Baseada em risco, principiológica |
| Autoridade reguladora | Serviço Europeu de IA + autoridades nacionais | SIA coordenado pela ANPD |
| Direitos autorais de criadores | Limitado | Autores podem vetar uso de obras |
| Sandboxes regulatórios | Detalhado no texto | Previsto; depende de regulamentação futura |
| Multas por descumprimento | Até 3% do faturamento global | A definir em regulamentação futura |
| Revisão humana de decisões | Obrigatória em alto risco | Obrigatória em alto risco |
| PMEs e startups | Regras diferenciadas, sandboxes prioritários | Sandboxes prioritários; critérios a regulamentar |
Impacto prático: casos reais no Brasil
Para entender o que o Marco Legal muda concretamente, é útil olhar para aplicações de IA que já existem no Brasil hoje — e como seriam tratadas sob a nova regulação:
- Reconhecimento facial em segurança pública — já usado por secretarias de segurança de vários estados brasileiros. Pelo PL, seria classificado como alto risco, exigindo avaliação de impacto algorítmico e transparência sobre taxas de erro, especialmente por raça.
- Score de crédito por IA — bancos digitais como Nubank e C6 usam modelos de IA para decisões de crédito. Seriam de alto risco, com obrigação de permitir contestação humana e explicar os critérios usados.
- IA generativa em música e artes — artistas brasileiros cujas obras foram usadas para treinar modelos internacionais (Suno, Udio, Midjourney) teriam, pelo PL, o direito de ser notificados e de vetar o uso de suas criações para fins comerciais.
- Triagem automatizada de currículos — empresas que usam IA para filtrar candidatos em processos seletivos enquadrariam em alto risco, com obrigação de transparência sobre os critérios e canal de contestação.
- Chatbots de atendimento — a obrigação de informar ao usuário que está falando com uma IA, não com um humano, é uma das exigências mais simples — e mais frequentemente descumprida hoje.
Podcast · Algoritmo Diário
Marco Legal da IA: o que muda para sua empresa em 2026
Análise em áudio — disponível no Spotify e principais plataformas.
Guia prático: o que fazer antes da aprovação
Não espere a lei ser aprovada para começar. A experiência com a LGPD mostrou que empresas que esperaram a vigência tiveram meses de corrida contra o relógio e custos muito maiores de adaptação. Com o Marco Legal da IA, o cenário é ainda mais complexo — porque exige revisão de sistemas, não só de processos.
-
1
Mapeie todos os sistemas de IA em uso
Liste cada sistema de IA — interno ou de terceiros — que afeta decisões sobre clientes, funcionários ou parceiros. Inclua ferramentas de análise de dados, sistemas de recomendação, chatbots, modelos de crédito e qualquer automação com consequências para pessoas físicas. Você não pode governar o que não conhece.
-
2
Classifique cada sistema pelo nível de risco
Para cada sistema listado, avalie: ele impacta decisões de crédito, saúde, emprego, segurança ou educação? Se sim, é provavelmente alto risco. Documente essa classificação com justificativa — você precisará dela para auditorias futuras.
-
3
Revise contratos com fornecedores de IA
Se você usa IA de terceiros (APIs de OpenAI, Google, Anthropic, ferramentas de RH automatizadas), verifique se os contratos atribuem responsabilidade sobre conformidade com a lei brasileira. Sob o PL, tanto desenvolvedor quanto operador podem ser responsabilizados.
-
4
Implemente governança interna de IA agora
Crie uma política de uso de IA com: quais sistemas são aprovados, como dados de clientes podem ser usados, quem revisa decisões automatizadas críticas, e como o usuário pode contestar uma decisão de IA. Isso protege a empresa hoje (Shadow AI) e prepara para a lei amanhã.
-
5
Acompanhe o texto final na Câmara
O PL pode sofrer alterações significativas na Câmara. Acompanhe o site da Comissão Especial e leia análises de especialistas em direito digital antes de implementar adaptações definitivas. O texto final pode ser diferente do aprovado pelo Senado em dezembro de 2024.
O art. 20 da LGPD já garante ao titular o direito de solicitar revisão humana de decisões automatizadas que afetem seus interesses. Se você usa IA para decisões de crédito, contratação ou atendimento e não tem esse canal disponível, já está em desacordo com a lei vigente — independentemente do Marco Legal. O novo PL amplifica e detalha essas obrigações.
Além de evitar multas e sanções, empresas com governança de IA madura ganham vantagem competitiva real: mais confiança de clientes, acesso a contratos com exigência de conformidade (especialmente internacionais) e menor custo de adaptação quando a lei entrar em vigor. Conformidade não é só custo — é diferencial de mercado.
O futuro: o que esperar após a aprovação
Para acompanhar a tramitação em tempo real, consulte a página oficial do PL 2338 na Câmara dos Deputados — onde estão disponíveis o texto integral, emendas e o histórico de votações.
A aprovação do Marco Legal da IA não encerra o debate — inaugura um novo ciclo. O texto do PL 2338 é intencionalmente principiológico em vários pontos, delegando detalhamentos a regulamentações futuras da ANPD e do SIA. Isso significa que mesmo após a aprovação, haverá meses ou anos de regulamentações setoriais sendo construídas.
Para startups e PMEs brasileiras, o maior ponto de atenção é a implementação dos sandboxes regulatórios — ambientes experimentais que permitem testar sistemas de IA com flexibilização de certas exigências, sob supervisão regulatória. Quando funcionarem, podem ser a porta de entrada para inovar sem correr o risco de multas por não conformidade em sistemas ainda em desenvolvimento.
Para empresas que trabalham com IA generativa e conteúdo criativo, a regulação de direitos autorais é a novidade mais importante do Brasil em relação ao AI Act europeu. Músicos, escritores e artistas brasileiros terão direito a ser notificados quando suas obras forem usadas para treinar modelos, com a prerrogativa de vetar esse uso para fins comerciais. Isso pode mudar significativamente os modelos de negócio de plataformas de IA generativa que operam no Brasil.
O debate mais amplo — sobre intenção, valores e quem decide como a IA será usada — está longe de terminar com a aprovação de um projeto de lei. Como discutimos no artigo SXSW 2026: O Maior Risco da IA Não É a Tecnologia — É a Intenção, regulação é necessária mas insuficiente. Ela define o piso mínimo. O teto é escolha de cada empresa.
Uma última perspectiva importante: o Marco Legal da IA não é o fim da conversa sobre como a inteligência artificial vai ser usada no Brasil. É o começo de um arcabouço que vai evoluir ao longo dos anos. O texto aprovado pelo Senado já reconhece isso ao ser deliberadamente aberto em vários pontos — preferindo princípios a regras rígidas para permitir que a regulação acompanhe o ritmo da inovação sem engessar o setor. A questão de fundo, porém, é sempre a mesma: quem decide como essa tecnologia serve à sociedade. E essa decisão não é só do legislador — é de cada empresa, profissional e cidadão que usa, desenvolve ou é afetado por sistemas de inteligência artificial.
Perguntas Frequentes
Acompanhe a tramitação do Marco Legal da IA
Receba análises semanais sobre regulação, ética e impacto da IA no Brasil — sem juridiquês desnecessário.
Quero receber gratuitamente →