Por que isso importa agora (e não daqui a 5 anos)

Existe um padrão que se repete sempre que uma regulação importante está prestes a ser aprovada: a maioria das empresas descobre o que mudou depois que mudou. Foi assim com a LGPD, foi assim com o Marco Civil da Internet, e está sendo assim com o Marco Legal da Inteligência Artificial. A diferença desta vez é que o impacto potencial é muito mais amplo — afeta qualquer empresa que use IA em decisões que afetam pessoas.

Isso não é uma categoria pequena. Inclui chatbots de atendimento, sistemas de crédito, algoritmos de RH, ferramentas de análise de saúde, plataformas de segurança com reconhecimento facial, modelos de precificação dinâmica. Se você usa qualquer dessas tecnologias — ou planeja usar — o PL 2338/2023 é sobre você.

O estado atual da tramitação
Aprovado no Senado em dez/2024 — aguardando votação na Câmara em 2026

O PL 2338/2023 foi aprovado pelo Plenário do Senado Federal em dezembro de 2024 e encaminhado à Câmara dos Deputados em março de 2025. Na Câmara, uma Comissão Especial analisa o texto desde abril de 2025. A previsão de votação é para 2026 — mas como o texto deve sofrer alterações, ele retornará ao Senado para nova análise. A aprovação definitiva pode ser um processo de meses. Prepare-se com antecedência, não na última hora.

O QUE É

O que é o PL 2338/2023 — Marco Legal da IA

Proposto pelo Senador Rodrigo Pacheco em maio de 2023, o PL 2338/2023 é a principal resposta legislativa brasileira à necessidade de regular inteligência artificial. Seu objetivo central, conforme a ementa: "dispor sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana."

Na prática, o projeto cria um arcabouço regulatório baseado em risco — quanto maior o potencial de dano de um sistema de IA, maiores as obrigações de quem o desenvolve ou usa. É uma abordagem inspirada no AI Act da União Europeia, mas com características próprias, como a inclusão de regras sobre direitos autorais de criadores cujas obras treinaram modelos de IA.

O projeto também prevê a criação do SIA (Sistema Nacional para Desenvolvimento, Regulação e Governança de IA), coordenado pela ANPD (Autoridade Nacional de Proteção de Dados), além de instâncias consultivas como o CRIA (Comitê de Regulação e Inovação em IA), CECIA (Comitê de Especialistas e Cientistas de IA) e CBIA (Conselho Brasileiro de Inteligência Artificial).

💡
LGPD e Marco Legal da IA: qual a diferença?

A LGPD regula dados pessoais — inclusive quando usados em sistemas de IA. O Marco Legal da IA vai além: cobre viés algorítmico, explicabilidade de decisões, aplicações de alto risco sem dados pessoais, e direitos autorais de criadores. São complementares, não substitutos. Empresas que já operam em conformidade com a LGPD têm uma base sólida — mas precisarão de camadas adicionais de governança para o Marco Legal da IA.

OS 4 NÍVEIS DE RISCO

Os 4 níveis de risco: sua empresa está em qual?

O coração do Marco Legal é a classificação de sistemas de IA por nível de risco. Essa classificação determina as obrigações específicas que se aplicam a cada empresa — desde transparência básica até avaliação de impacto algorítmico completa.

Nível de RiscoExemplos de aplicaçõesPrincipais obrigações
🔴 Risco Excessivo (proibido) Sistemas de controle social por pontuação, manipulação subliminar, categorização por raça/religião/orientação Proibido — uso vedado no Brasil
🟠 Alto Risco IA em crédito, saúde, recrutamento, segurança pública, educação, infraestrutura crítica Avaliação de impacto algorítmico, auditabilidade, transparência, revisão humana obrigatória
🟡 Risco Limitado Chatbots, deepfakes identificados, sistemas de recomendação de conteúdo Obrigação de informar ao usuário que está interagindo com IA
🟢 Baixo Risco Filtros de spam, autocompletar, jogos com IA, tradutores Código de conduta voluntário; sem obrigações formais específicas
⚠️
A maioria das empresas brasileiras está no nível "alto risco" sem saber

Se você usa IA para análise de crédito, triagem de currículos, atendimento médico, precificação que afeta consumidores ou segurança com reconhecimento facial — sua aplicação é de alto risco segundo o PL. Isso implica obrigações significativas: avaliação de impacto algorítmico, documentação técnica, canal de contestação para usuários, e auditabilidade. Não é uma surpresa para preparar na última hora.

🚫
O que o Marco Legal proíbe — sistemas de risco excessivo

O PL lista aplicações que serão proibidas no Brasil: sistemas de pontuação social que restrinjam direitos com base em comportamento (como o sistema de crédito social da China), técnicas de manipulação subliminar que contornem a consciência do usuário, e categorização de pessoas por raça, religião, opiniões políticas ou orientação sexual para finalidades discriminatórias. Quem implementar esses sistemas estará sujeito às sanções mais severas da lei.

BRASIL vs. EUROPA

Brasil vs. UE: como o Marco Legal se compara ao AI Act

AspectoAI Act (UE)PL 2338 (Brasil)
Abordagem Baseada em risco, prescritiva Baseada em risco, principiológica
Autoridade reguladora Serviço Europeu de IA + autoridades nacionais SIA coordenado pela ANPD
Direitos autorais de criadores Limitado Autores podem vetar uso de obras
Sandboxes regulatórios Detalhado no texto Previsto; depende de regulamentação futura
Multas por descumprimento Até 3% do faturamento global A definir em regulamentação futura
Revisão humana de decisões Obrigatória em alto risco Obrigatória em alto risco
PMEs e startups Regras diferenciadas, sandboxes prioritários Sandboxes prioritários; critérios a regulamentar
IMPACTO PRÁTICO

Impacto prático: casos reais no Brasil

Para entender o que o Marco Legal muda concretamente, é útil olhar para aplicações de IA que já existem no Brasil hoje — e como seriam tratadas sob a nova regulação:

  • Reconhecimento facial em segurança pública — já usado por secretarias de segurança de vários estados brasileiros. Pelo PL, seria classificado como alto risco, exigindo avaliação de impacto algorítmico e transparência sobre taxas de erro, especialmente por raça.
  • Score de crédito por IA — bancos digitais como Nubank e C6 usam modelos de IA para decisões de crédito. Seriam de alto risco, com obrigação de permitir contestação humana e explicar os critérios usados.
  • IA generativa em música e artes — artistas brasileiros cujas obras foram usadas para treinar modelos internacionais (Suno, Udio, Midjourney) teriam, pelo PL, o direito de ser notificados e de vetar o uso de suas criações para fins comerciais.
  • Triagem automatizada de currículos — empresas que usam IA para filtrar candidatos em processos seletivos enquadrariam em alto risco, com obrigação de transparência sobre os critérios e canal de contestação.
  • Chatbots de atendimento — a obrigação de informar ao usuário que está falando com uma IA, não com um humano, é uma das exigências mais simples — e mais frequentemente descumprida hoje.

Podcast · Algoritmo Diário

Marco Legal da IA: o que muda para sua empresa em 2026

Análise em áudio — disponível no Spotify e principais plataformas.

Ouvir agora
GUIA PRÁTICO

Guia prático: o que fazer antes da aprovação

Não espere a lei ser aprovada para começar. A experiência com a LGPD mostrou que empresas que esperaram a vigência tiveram meses de corrida contra o relógio e custos muito maiores de adaptação. Com o Marco Legal da IA, o cenário é ainda mais complexo — porque exige revisão de sistemas, não só de processos.

  1. 1
    Mapeie todos os sistemas de IA em uso

    Liste cada sistema de IA — interno ou de terceiros — que afeta decisões sobre clientes, funcionários ou parceiros. Inclua ferramentas de análise de dados, sistemas de recomendação, chatbots, modelos de crédito e qualquer automação com consequências para pessoas físicas. Você não pode governar o que não conhece.

  2. 2
    Classifique cada sistema pelo nível de risco

    Para cada sistema listado, avalie: ele impacta decisões de crédito, saúde, emprego, segurança ou educação? Se sim, é provavelmente alto risco. Documente essa classificação com justificativa — você precisará dela para auditorias futuras.

  3. 3
    Revise contratos com fornecedores de IA

    Se você usa IA de terceiros (APIs de OpenAI, Google, Anthropic, ferramentas de RH automatizadas), verifique se os contratos atribuem responsabilidade sobre conformidade com a lei brasileira. Sob o PL, tanto desenvolvedor quanto operador podem ser responsabilizados.

  4. 4
    Implemente governança interna de IA agora

    Crie uma política de uso de IA com: quais sistemas são aprovados, como dados de clientes podem ser usados, quem revisa decisões automatizadas críticas, e como o usuário pode contestar uma decisão de IA. Isso protege a empresa hoje (Shadow AI) e prepara para a lei amanhã.

  5. 5
    Acompanhe o texto final na Câmara

    O PL pode sofrer alterações significativas na Câmara. Acompanhe o site da Comissão Especial e leia análises de especialistas em direito digital antes de implementar adaptações definitivas. O texto final pode ser diferente do aprovado pelo Senado em dezembro de 2024.

📋
O que a LGPD já exige — e o que vai mudar

O art. 20 da LGPD já garante ao titular o direito de solicitar revisão humana de decisões automatizadas que afetem seus interesses. Se você usa IA para decisões de crédito, contratação ou atendimento e não tem esse canal disponível, já está em desacordo com a lei vigente — independentemente do Marco Legal. O novo PL amplifica e detalha essas obrigações.

A vantagem das empresas que se antecipam

Além de evitar multas e sanções, empresas com governança de IA madura ganham vantagem competitiva real: mais confiança de clientes, acesso a contratos com exigência de conformidade (especialmente internacionais) e menor custo de adaptação quando a lei entrar em vigor. Conformidade não é só custo — é diferencial de mercado.

O FUTURO

O futuro: o que esperar após a aprovação

Para acompanhar a tramitação em tempo real, consulte a página oficial do PL 2338 na Câmara dos Deputados — onde estão disponíveis o texto integral, emendas e o histórico de votações.

A aprovação do Marco Legal da IA não encerra o debate — inaugura um novo ciclo. O texto do PL 2338 é intencionalmente principiológico em vários pontos, delegando detalhamentos a regulamentações futuras da ANPD e do SIA. Isso significa que mesmo após a aprovação, haverá meses ou anos de regulamentações setoriais sendo construídas.

Para startups e PMEs brasileiras, o maior ponto de atenção é a implementação dos sandboxes regulatórios — ambientes experimentais que permitem testar sistemas de IA com flexibilização de certas exigências, sob supervisão regulatória. Quando funcionarem, podem ser a porta de entrada para inovar sem correr o risco de multas por não conformidade em sistemas ainda em desenvolvimento.

Para empresas que trabalham com IA generativa e conteúdo criativo, a regulação de direitos autorais é a novidade mais importante do Brasil em relação ao AI Act europeu. Músicos, escritores e artistas brasileiros terão direito a ser notificados quando suas obras forem usadas para treinar modelos, com a prerrogativa de vetar esse uso para fins comerciais. Isso pode mudar significativamente os modelos de negócio de plataformas de IA generativa que operam no Brasil.

O debate mais amplo — sobre intenção, valores e quem decide como a IA será usada — está longe de terminar com a aprovação de um projeto de lei. Como discutimos no artigo SXSW 2026: O Maior Risco da IA Não É a Tecnologia — É a Intenção, regulação é necessária mas insuficiente. Ela define o piso mínimo. O teto é escolha de cada empresa.

Uma última perspectiva importante: o Marco Legal da IA não é o fim da conversa sobre como a inteligência artificial vai ser usada no Brasil. É o começo de um arcabouço que vai evoluir ao longo dos anos. O texto aprovado pelo Senado já reconhece isso ao ser deliberadamente aberto em vários pontos — preferindo princípios a regras rígidas para permitir que a regulação acompanhe o ritmo da inovação sem engessar o setor. A questão de fundo, porém, é sempre a mesma: quem decide como essa tecnologia serve à sociedade. E essa decisão não é só do legislador — é de cada empresa, profissional e cidadão que usa, desenvolve ou é afetado por sistemas de inteligência artificial.

Perguntas Frequentes

O que é o PL 2338/2023 — Marco Legal da IA no Brasil?
É o principal projeto de lei de regulação de IA no Brasil, proposto pelo Senador Rodrigo Pacheco. Aprovado pelo Senado em dezembro de 2024, tramita na Câmara em 2026. Institui princípios, diretrizes e mecanismos de governança para desenvolvimento e uso ético de sistemas de IA, com abordagem baseada em risco.
Como o Marco Legal brasileiro se diferencia do AI Act europeu?
Ambos usam abordagem baseada em risco, mas o Brasil acrescenta regulação de direitos autorais (autores podem vetar uso de suas obras para treinar IA) e cria o SIA ligado à ANPD. O texto brasileiro é mais principiológico — menos prescritivo que o europeu, delegando detalhes a regulamentações futuras.
Quando o Marco Legal da IA será aprovado no Brasil?
O PL foi aprovado no Senado em dezembro de 2024 e tramita na Câmara em 2026. A previsão é de votação ainda em 2026, mas como o texto deve sofrer ajustes, ele retornará ao Senado. O processo pode se estender ao longo do ano, especialmente em contexto eleitoral.
O que muda para empresas brasileiras com a aprovação do Marco Legal da IA?
As principais obrigações para aplicações de alto risco serão: transparência sobre uso de IA em decisões que afetam pessoas; avaliação de impacto algorítmico; direito do usuário de solicitar revisão humana; proteção reforçada de dados em treinamento; e auditabilidade dos sistemas. Chatbots precisarão informar que são IA.
A LGPD já regula o uso de IA no Brasil?
Parcialmente. A LGPD regula dados pessoais em sistemas de IA e prevê revisão humana de decisões automatizadas (art. 20). Mas não cobre viés algorítmico, explicabilidade, aplicações de alto risco sem dados pessoais, ou direitos autorais de criadores. O PL 2338 complementa a LGPD com arcabouço específico para IA.

Acompanhe a tramitação do Marco Legal da IA

Receba análises semanais sobre regulação, ética e impacto da IA no Brasil — sem juridiquês desnecessário.

Quero receber gratuitamente →