Juliana, diretora de marketing de uma rede de clínicas em Curitiba, implantou um sistema de IA para gerar resumos de atendimento. Funcionou bem por três semanas. Na quarta semana, um paciente ligou indignado. O resumo gerado pela IA continha informações de outro paciente — nome de medicamento, histórico de consultas, dado sensível de saúde. O sistema tinha "misturado" contextos em um dos prompts. Ninguém na equipe sabia explicar como. O custo imediato: notificação à ANPD, reunião de crise com o jurídico, revisão de todo o processo. O custo de reputação: dois médicos cancelaram contratos com a rede naquele mês. O sistema de IA custava R$ 800/mês. A consequência custou muito mais. A situação de Juliana não é exceção. É o padrão de adoção de IA sem governança — e os riscos têm nome, têm fonte e têm mitigação específica.

O QUE SÃO

O que são riscos de IA — por que são diferentes

Ferramentas de software tradicionais falham de forma previsível. Um bug produz um erro específico, repetível, que pode ser reproduzido e corrigido. Riscos de IA funcionam diferente. Eles são probabilísticos e emergentes: a mesma entrada pode produzir saídas diferentes. Um modelo pode funcionar perfeitamente durante semanas e, de repente, gerar uma saída que causa dano real.

A distinção que muda a gestão de risco:

Dimensão Risco de software tradicional Risco de IA / LLM
PrevisibilidadeAlta — erros são reproduzíveisBaixa — saídas são probabilísticas
DetecçãoTestes automatizados cobrem bemDifícil de testar exaustivamente
ResponsabilidadeClara — é do desenvolvedorDifusa — empresa, modelo, usuário
Escala do danoGeralmente contidaPode escalar rápido (decisões automáticas)
Regulação no BrasilMarco Civil, LGPDLGPD + PL IA em tramitação + ANPD agenda 2025-26
⚠️
O dado anti-hype que a maioria dos vendedores de IA não menciona

O MIT NANDA publicou em 2025 que 95% dos projetos piloto de IA generativa não entregam ROI mensurável. A Gartner projetou que 30% seriam abandonados após a prova de conceito ainda em 2025. O problema não é a tecnologia — é a falta de governança, qualidade de dados ruim e ausência de estratégia clara. Adotar IA sem esses fundamentos não é apenas ineficiente — é perigoso.

COMPARATIVO

Mapa dos 7 riscos: severidade e facilidade de mitigação

Risco Severidade Frequência Facilidade de mitigar Impacto no Brasil
1. Alucinações Alta Frequente Moderada Decisões erradas, processos judiciais
2. Vazamento de dados / LGPD Alta Moderada Moderada Multas ANPD, danos de reputação
3. Vieses algorítmicos Alta Moderada Difícil Discriminação, responsabilidade legal
4. Custo de API explosivo Média Frequente Fácil Impacto financeiro direto
5. Dependência de fornecedor Média Rara inicialmente Moderada Perda de dados ao cancelar contrato
6. Shadow AI Média-alta Muito frequente Moderada 47,4% das empresas BR (Abiacom, 2025)
7. Responsabilidade legal difusa Alta Crescente Difícil PL IA em tramitação, lacuna regulatória

Podcast · Algoritmo Diário

Riscos da IA: o que empresas brasileiras precisam saber antes de adotar

Episódio completo — Spotify e principais plataformas.

Ouvir agora
OS 7 RISCOS

Os 7 riscos em detalhe — com casos brasileiros

1 Alucinações — a IA que inventa com confiança
⚠️ Severidade alta

Um modelo de linguagem não "sabe" coisas. Ele calcula a próxima palavra mais provável. Quando não tem certeza, ele inventa — com a mesma fluência e confiança de quando está correto. Isso é uma alucinação.

Caso brasileiro real (2025): O TJ-PR barrou uma petição judicial porque a IA do advogado gerou 43 acórdãos judiciais completamente inexistentes. O acórdão do tribunal foi explícito: "Todas as 'jurisprudências' citadas são criações de alguma (des)inteligência artificial" — o advogado recebeu advertência e não teve honorários fixados.

Como mitigar: nunca acate saídas de IA em decisões críticas sem verificação humana. Para documentos jurídicos, financeiros e médicos: fonte primária sempre. Use IA para rascunhos, nunca como última instância.

2 Vazamento de dados e LGPD
⚠️ Severidade alta

Quando um funcionário cola dados de clientes no ChatGPT, está transferindo dados pessoais a um processador terceiro nos EUA. Isso pode configurar violação da LGPD — e a empresa responde, não o ChatGPT.

A ANPD exige notificação em até 3 dias úteis após conhecimento de incidente relevante (Resolução 15/2024). O MPF notificou a OpenAI em 2024 sobre riscos de alucinação com dados pessoais no Brasil. A ANPD já incluiu IA em sua Agenda Regulatória 2025-2026.

Como mitigar: mapeie quais dados pessoais chegam às APIs de IA. Implemente política de "dados sintéticos em teste" — nunca use CPF, nome, dado de saúde ou financeiro real em prompts não estruturados.

3 Vieses algorítmicos — discriminação em escala
⚠️ Severidade alta

Modelos de IA aprendem dos dados com que foram treinados. Se os dados históricos refletem desigualdades (gênero, raça, classe), o modelo reproduz e amplifica esses padrões. Um sistema de triagem de currículos treinado em contratações históricas pode sistematicamente desfavorecer mulheres ou pessoas negras — de forma automatizada e em escala.

Risco específico no Brasil: empresas que usam IA para decisões sobre crédito, emprego ou precificação podem infringir o Código de Defesa do Consumidor, a CLT e a LGPD simultaneamente — sem saber.

Como mitigar: audite periodicamente as saídas do modelo por grupos demográficos. Documente as bases de tomada de decisão automatizada. O PL de regulamentação da IA exige explicabilidade em decisões que afetam direitos.

💰
Custo real — APIs que escalam sem aviso

APIs de IA cobram por token (unidade de texto processada). Uma aplicação que funciona bem com 100 usuários pode ter custo 100x maior com 10.000 usuários — sem alerta automático. Casos documentados: startups brasileiras receberam faturas de US$ 3.000–15.000 em um único mês após crescimento viral, sem ter configurado limites de gasto. Sempre configure max_tokens, spending_limit e alertas de billing antes de colocar IA em produção.

4 Custo de API explosivo — o risco financeiro silencioso
📊 Severidade média

Modelos de IA cobram por uso — por token processado, por imagem gerada, por segundo de áudio transcrito. Sem limites configurados, um único bug ou pico de tráfego pode gerar uma fatura enorme. É o risco mais fácil de mitigar e o mais frequentemente ignorado por times sem experiência com APIs.

Como mitigar: configure limites de gasto mensais em todas as plataformas de API (OpenAI, Anthropic, Google). Monitore consumo por endpoint. Use modelos menores (Haiku, GPT-4o mini) para tarefas de triagem e reserve modelos maiores para decisões críticas.

5 Dependência de fornecedor — o lock-in invisível
📊 Severidade média

Ferramentas de IA SaaS criam dependência estrutural rápida. Seus dados, seus prompts, seus fluxos ficam dentro da plataforma. Se o fornecedor aumenta preços, descontinua o produto ou é adquirido, você pode perder meses de trabalho — ou pagar o que o fornecedor quiser.

Como mitigar: prefira ferramentas que exportam seus dados em formato padrão. Documente todos os prompts e fluxos de IA fora da plataforma. Para funcionalidades críticas, avalie soluções open source com infraestrutura própria.

6 Shadow AI — o uso que você não vê
⚠️ Severidade média-alta

47,4% dos profissionais brasileiros usam ferramentas de IA sem aprovação formal da empresa (Abiacom, 2025). Eles colam propostas comerciais, planilhas financeiras e dados de clientes em ChatGPT, Claude ou Gemini — sem que o gestor saiba. Cada um desses atos pode configurar vazamento de dados pessoais ou de segredos industriais.

Como mitigar: a solução não é proibir — é criar canais oficiais. Ofereça ferramentas de IA aprovadas com controles de privacidade. Treine o time sobre o que pode e o que não pode entrar em um prompt. Uma política de uso de IA clara reduz o Shadow AI muito mais do que firewalls.

7 Responsabilidade legal difusa — quem responde quando a IA erra?
⚠️ Severidade alta

No Brasil, a LGPD é clara: o controlador de dados responde pelos incidentes. Mas quando uma decisão de IA causa dano — uma análise de crédito errada, um diagnóstico incorreto, uma petição com jurisprudência inventada — a responsabilidade legal ainda está em construção. O PL de regulamentação da IA no Brasil está em tramitação. Até ser aprovado, o vazio jurídico é um risco real.

Como mitigar: documente toda decisão crítica gerada com auxílio de IA. Mantenha humano responsável por cada decisão que afete clientes ou terceiros. Consulte jurídico antes de usar IA em processos regulados (saúde, crédito, seguros, RH).

COMO MITIGAR

Passo a passo: como montar uma política de uso de IA

A Redação do Algoritmo Diário avalia que uma política de uso de IA não precisa ter 50 páginas para ser eficaz. Para PMEs, um documento de 2 a 4 páginas com regras claras e aplicadas é mais eficiente que um manual corporativo que ninguém lê. Aqui está o essencial:

  1. 1
    Mapeie os usos atuais de IA no seu time

    Antes de criar regras, descubra o que já acontece. Pergunte ao time: quais ferramentas de IA você usa? Com que frequência? Para quais tarefas? Você já inseriu dados de clientes? Os resultados vão revelar onde está o Shadow AI e quais riscos já existem sem que você saiba.

  2. 2
    Defina uma lista de dados NUNCA enviáveis a IA externa

    Liste explicitamente: CPF, CNPJ de clientes, dados de saúde, dados financeiros não públicos, segredos industriais, contratos confidenciais. Esses dados nunca devem entrar em APIs externas sem base legal na LGPD e contrato de processamento com o fornecedor. Coloque essa lista visível — na wiki interna, no onboarding, no Slack.

  3. 3
    Configure limites de gasto em todas as APIs

    OpenAI, Anthropic e Google Cloud permitem configurar limites mensais de gasto e alertas por e-mail. Faça isso antes de qualquer deploy em produção. Defina um limite conservador no primeiro mês e aumente gradualmente com base no uso real. Nunca deixe uma API de IA sem spending limit configurado.

  4. 4
    Implemente a regra do "humano no loop" para decisões críticas

    Qualquer decisão que afete clientes, contratos, saúde ou finanças deve ter um humano responsável pela aprovação final. A IA pode gerar a recomendação, mas não pode ser a única signatária. Documente quem aprovou e quando — essa trilha de auditoria pode ser decisiva em uma investigação da ANPD ou processo judicial.

💬 Prompt de autoavaliação de risco de IA para PMEs
Atue como consultor de governança de IA para uma PME brasileira. Minha empresa tem [NÚMERO] funcionários no setor de [SETOR]. Usamos IA principalmente para: [LISTA DE USOS]. Nossos dados mais sensíveis incluem: [TIPOS DE DADOS]. Por favor, faça uma avaliação dos principais riscos: 1. Identifique os 3 maiores riscos de IA específicos para o nosso contexto — cite leis ou regulações brasileiras relevantes (LGPD, ANPD, PL IA) 2. Para cada risco, dê uma ação concreta que posso implementar esta semana 3. Liste 3 perguntas que devo fazer ao nosso fornecedor de IA sobre privacidade e segurança de dados 4. Sugira o texto de uma cláusula básica de uso de IA para nosso contrato de trabalho Seja direto. Sem introduções genéricas. Máximo 500 palavras.
💡
Dica prática — auditoria rápida de Shadow AI

Envie este formulário de Google Forms para seu time: "Quais ferramentas de IA você usa no trabalho?" (anônimo, sem julgamento). As respostas revelam em 30 minutos o que está acontecendo. Times que fazem essa auditoria descobrem, em média, 3 a 6 ferramentas de IA em uso que a TI não sabia. Saber é o primeiro passo para governar.

DECISÃO

Guia de decisão por perfil de empresa

  1. Se você usa IA apenas para produtividade pessoal (redação, pesquisa)

    Risco baixo — regra simples. Nunca insira dados pessoais de clientes ou informações confidenciais em ferramentas de IA gratuitas ou de consumo. Use ferramentas corporativas com termos de serviço que não usam seus dados para treinamento (ChatGPT Enterprise, Claude for Work). Crie uma checklist de 3 perguntas antes de usar IA para qualquer tarefa: o que entra, o que sai, quem pode ver?

  2. Se você usa IA em processos que tocam dados de clientes

    Risco médio-alto — política obrigatória. Você precisa de uma política de uso de IA escrita, treinamento de equipe e um responsável pelo monitoramento. Mapeie todos os dados que passam por APIs de IA. Consulte jurídico sobre LGPD. Configure limites de spending em todas as APIs. Notifique a ANPD em caso de incidente em até 3 dias úteis.

  3. Se você usa IA para tomar decisões automatizadas sobre clientes

    Risco alto — exige governança estruturada. Decisões automáticas de crédito, triagem, precificação ou saúde exigem explicabilidade, trilha de auditoria e revisão humana. O PL de IA em tramitação vai tornar isso obrigatório. Prepare-se agora. Contrate consultoria especializada antes de escalar qualquer sistema de decisão automatizada.

  4. Se você ainda não usa IA mas quer começar

    Momento ideal para fazer certo desde o início. Comece com casos de uso internos e sem dados sensíveis: resumo de reuniões, geração de rascunhos, análise de documentos públicos. Estabeleça a política antes de expandir. Lembre: 72% das empresas brasileiras estão no estágio inicial de IA sem governança (Abiacom, 2025) — você pode sair na frente sendo mais cuidadoso desde o início.

FAQ — perguntas reais sobre riscos da IA no Brasil

Quais são os principais riscos da inteligência artificial para empresas?
Os 7 mais relevantes para PMEs brasileiras: alucinações (IA inventa com confiança), vazamento de dados via LGPD, vieses algorítmicos, custo de API explosivo, dependência de fornecedor, Shadow AI (uso não autorizado pelo time) e responsabilidade legal difusa. Cada risco tem nível de severidade e mitigação diferente. O mais urgente para a maioria das PMEs: Shadow AI e LGPD — já estão acontecendo agora, sem que muitos gestores saibam.
A IA pode violar a LGPD?
Sim. Quando dados pessoais de clientes são enviados a APIs de IA externas, isso pode configurar transferência de dados a terceiros e exigir base legal ou contrato de processamento. A ANPD exige notificação em até 3 dias úteis em caso de incidente relevante (Resolução 15/2024). O MPF já notificou a OpenAI em 2024 sobre riscos no Brasil. Empresas que usam IA sem mapear o fluxo de dados pessoais estão expostas a sanções.
O que é alucinação de IA e qual o risco real?
Alucinação de IA é quando um modelo de linguagem gera informações incorretas com aparência de confiança. 47% dos usuários corporativos já tomaram ao menos uma decisão importante baseada em conteúdo alucinado (Deloitte, 2025). No Brasil, o TJ-PR barrou uma petição em 2025 porque a IA gerou 43 acórdãos judiciais inexistentes. Em finanças, saúde e direito, uma única alucinação pode causar prejuízos irreversíveis.
Como evitar os riscos da IA na minha empresa?
As 5 ações mais eficazes: (1) implemente política de uso de IA com casos permitidos e proibidos; (2) nunca envie dados pessoais a APIs externas sem base legal na LGPD; (3) exija verificação humana em decisões críticas geradas por IA; (4) configure limites de gasto em APIs para evitar custos explosivos; (5) mapeie quais ferramentas seu time já usa informalmente. 72% das empresas brasileiras ainda estão no estágio inicial sem governança (Abiacom, 2025) — o risco de exposição é alto.
Quem é responsável quando a IA erra?
No Brasil, segundo a LGPD, a responsabilidade pelo tratamento de dados pessoais recai sobre o controlador — a empresa que usa a ferramenta, não o fornecedor da IA. Se uma decisão errada de IA causar dano a um cliente, a empresa responde. Em medicina e direito, a responsabilidade profissional é do médico ou advogado que acatou a saída da IA sem verificação. O PL de regulamentação da IA em tramitação deve detalhar mais essas responsabilidades.
A conclusão que este artigo entrega — sem catastrofismo

IA não é uma ameaça existencial para sua empresa. É uma ferramenta com riscos conhecidos, mensuráveis e mitigáveis. O mercado global de governança e risco (GRC) atingiu US$ 82,56 bilhões em 2025 e cresce 14,85% ao ano — exatamente porque empresas maduras tratam governança de IA como parte da operação, não como burocracia. O Brasil ainda está em estágio inicial: 72% das empresas sem governança estruturada, segundo a Abiacom. Isso significa que as empresas que agirem agora — com políticas simples, limites de API configurados e um responsável pelo uso de IA — vão sair na frente quando a regulação apertar. E ela vai apertar. A ANPD está se estruturando. O PL de IA está em tramitação. A janela para fazer certo de forma voluntária é agora.

Na prática, o risco maior não é a IA em si — é a combinação de adoção acelerada com ausência de governança. Cada um dos 7 riscos deste artigo tem um ponto de intervenção claro. Alucinações se mitigam com verificação humana. LGPD se resolve com mapeamento de dados. Shadow AI se reduz com ferramentas oficiais e treinamento. Custo de API se controla com limites configurados antes do deploy. Não é preciso esperar uma crise para agir. Juliana, a diretora de clínicas de Curitiba com quem abrimos este artigo, aprendeu da forma mais cara. Você não precisa.

% acharam útil % discordaram % aprenderam algo

Qual risco é mais relevante para a sua empresa agora?

0/300
Obrigado pelo feedback. Cada resposta orienta os próximos artigos da Redação.
Receba análises sobre IA, ética e regulação toda semana Sem algoritmo de feed. Jornalismo independente sobre IA no Brasil.
Quero receber →

Acompanhe regulação e riscos de IA no Brasil

Mais de 40.000 profissionais recebem o Briefing Diário — análises sobre IA, LGPD, regulação e governança todo dia às 7h.

Quero receber gratuitamente →