IA não vai destruir
sua empresa — mas esses
7 riscos podem,
se você ignorá-los
95% dos projetos corporativos de IA generativa não entregam ROI mensurável (MIT, 2025). O problema raramente é a tecnologia. É a ausência de governança, de limites claros e de conhecimento sobre o que pode dar errado. Este guia mostra os 7 riscos reais — com dados verificados e casos brasileiros concretos.
🎨 Ilustração: Algoritmo Diário / DALL-E 3
- — Juliana e o problema de dados em Curitiba
- 01 O que são riscos de IA — por que são diferentes dos riscos de software comum
- 02 Comparativo: 7 riscos por severidade e facilidade de mitigação
- 03 Os 7 riscos em detalhe — com exemplos brasileiros
- 04 Passo a passo: como montar uma política de uso de IA
- 05 Guia de decisão por perfil de empresa
- 06 FAQ — perguntas reais sobre riscos da IA no Brasil
Juliana, diretora de marketing de uma rede de clínicas em Curitiba, implantou um sistema de IA para gerar resumos de atendimento. Funcionou bem por três semanas. Na quarta semana, um paciente ligou indignado. O resumo gerado pela IA continha informações de outro paciente — nome de medicamento, histórico de consultas, dado sensível de saúde. O sistema tinha "misturado" contextos em um dos prompts. Ninguém na equipe sabia explicar como. O custo imediato: notificação à ANPD, reunião de crise com o jurídico, revisão de todo o processo. O custo de reputação: dois médicos cancelaram contratos com a rede naquele mês. O sistema de IA custava R$ 800/mês. A consequência custou muito mais. A situação de Juliana não é exceção. É o padrão de adoção de IA sem governança — e os riscos têm nome, têm fonte e têm mitigação específica.
O que são riscos de IA — por que são diferentes
Ferramentas de software tradicionais falham de forma previsível. Um bug produz um erro específico, repetível, que pode ser reproduzido e corrigido. Riscos de IA funcionam diferente. Eles são probabilísticos e emergentes: a mesma entrada pode produzir saídas diferentes. Um modelo pode funcionar perfeitamente durante semanas e, de repente, gerar uma saída que causa dano real.
A distinção que muda a gestão de risco:
| Dimensão | Risco de software tradicional | Risco de IA / LLM |
|---|---|---|
| Previsibilidade | Alta — erros são reproduzíveis | Baixa — saídas são probabilísticas |
| Detecção | Testes automatizados cobrem bem | Difícil de testar exaustivamente |
| Responsabilidade | Clara — é do desenvolvedor | Difusa — empresa, modelo, usuário |
| Escala do dano | Geralmente contida | Pode escalar rápido (decisões automáticas) |
| Regulação no Brasil | Marco Civil, LGPD | LGPD + PL IA em tramitação + ANPD agenda 2025-26 |
O MIT NANDA publicou em 2025 que 95% dos projetos piloto de IA generativa não entregam ROI mensurável. A Gartner projetou que 30% seriam abandonados após a prova de conceito ainda em 2025. O problema não é a tecnologia — é a falta de governança, qualidade de dados ruim e ausência de estratégia clara. Adotar IA sem esses fundamentos não é apenas ineficiente — é perigoso.
Mapa dos 7 riscos: severidade e facilidade de mitigação
| Risco | Severidade | Frequência | Facilidade de mitigar | Impacto no Brasil |
|---|---|---|---|---|
| 1. Alucinações | Alta | Frequente | Moderada | Decisões erradas, processos judiciais |
| 2. Vazamento de dados / LGPD | Alta | Moderada | Moderada | Multas ANPD, danos de reputação |
| 3. Vieses algorítmicos | Alta | Moderada | Difícil | Discriminação, responsabilidade legal |
| 4. Custo de API explosivo | Média | Frequente | Fácil | Impacto financeiro direto |
| 5. Dependência de fornecedor | Média | Rara inicialmente | Moderada | Perda de dados ao cancelar contrato |
| 6. Shadow AI | Média-alta | Muito frequente | Moderada | 47,4% das empresas BR (Abiacom, 2025) |
| 7. Responsabilidade legal difusa | Alta | Crescente | Difícil | PL IA em tramitação, lacuna regulatória |
Podcast · Algoritmo Diário
Riscos da IA: o que empresas brasileiras precisam saber antes de adotar
Episódio completo — Spotify e principais plataformas.
Os 7 riscos em detalhe — com casos brasileiros
Um modelo de linguagem não "sabe" coisas. Ele calcula a próxima palavra mais provável. Quando não tem certeza, ele inventa — com a mesma fluência e confiança de quando está correto. Isso é uma alucinação.
Caso brasileiro real (2025): O TJ-PR barrou uma petição judicial porque a IA do advogado gerou 43 acórdãos judiciais completamente inexistentes. O acórdão do tribunal foi explícito: "Todas as 'jurisprudências' citadas são criações de alguma (des)inteligência artificial" — o advogado recebeu advertência e não teve honorários fixados.
Como mitigar: nunca acate saídas de IA em decisões críticas sem verificação humana. Para documentos jurídicos, financeiros e médicos: fonte primária sempre. Use IA para rascunhos, nunca como última instância.
Quando um funcionário cola dados de clientes no ChatGPT, está transferindo dados pessoais a um processador terceiro nos EUA. Isso pode configurar violação da LGPD — e a empresa responde, não o ChatGPT.
A ANPD exige notificação em até 3 dias úteis após conhecimento de incidente relevante (Resolução 15/2024). O MPF notificou a OpenAI em 2024 sobre riscos de alucinação com dados pessoais no Brasil. A ANPD já incluiu IA em sua Agenda Regulatória 2025-2026.
Como mitigar: mapeie quais dados pessoais chegam às APIs de IA. Implemente política de "dados sintéticos em teste" — nunca use CPF, nome, dado de saúde ou financeiro real em prompts não estruturados.
Modelos de IA aprendem dos dados com que foram treinados. Se os dados históricos refletem desigualdades (gênero, raça, classe), o modelo reproduz e amplifica esses padrões. Um sistema de triagem de currículos treinado em contratações históricas pode sistematicamente desfavorecer mulheres ou pessoas negras — de forma automatizada e em escala.
Risco específico no Brasil: empresas que usam IA para decisões sobre crédito, emprego ou precificação podem infringir o Código de Defesa do Consumidor, a CLT e a LGPD simultaneamente — sem saber.
Como mitigar: audite periodicamente as saídas do modelo por grupos demográficos. Documente as bases de tomada de decisão automatizada. O PL de regulamentação da IA exige explicabilidade em decisões que afetam direitos.
APIs de IA cobram por token (unidade de texto processada). Uma aplicação que funciona bem com 100 usuários pode ter custo 100x maior com 10.000 usuários — sem alerta automático. Casos documentados: startups brasileiras receberam faturas de US$ 3.000–15.000 em um único mês após crescimento viral, sem ter configurado limites de gasto. Sempre configure max_tokens, spending_limit e alertas de billing antes de colocar IA em produção.
Modelos de IA cobram por uso — por token processado, por imagem gerada, por segundo de áudio transcrito. Sem limites configurados, um único bug ou pico de tráfego pode gerar uma fatura enorme. É o risco mais fácil de mitigar e o mais frequentemente ignorado por times sem experiência com APIs.
Como mitigar: configure limites de gasto mensais em todas as plataformas de API (OpenAI, Anthropic, Google). Monitore consumo por endpoint. Use modelos menores (Haiku, GPT-4o mini) para tarefas de triagem e reserve modelos maiores para decisões críticas.
Ferramentas de IA SaaS criam dependência estrutural rápida. Seus dados, seus prompts, seus fluxos ficam dentro da plataforma. Se o fornecedor aumenta preços, descontinua o produto ou é adquirido, você pode perder meses de trabalho — ou pagar o que o fornecedor quiser.
Como mitigar: prefira ferramentas que exportam seus dados em formato padrão. Documente todos os prompts e fluxos de IA fora da plataforma. Para funcionalidades críticas, avalie soluções open source com infraestrutura própria.
47,4% dos profissionais brasileiros usam ferramentas de IA sem aprovação formal da empresa (Abiacom, 2025). Eles colam propostas comerciais, planilhas financeiras e dados de clientes em ChatGPT, Claude ou Gemini — sem que o gestor saiba. Cada um desses atos pode configurar vazamento de dados pessoais ou de segredos industriais.
Como mitigar: a solução não é proibir — é criar canais oficiais. Ofereça ferramentas de IA aprovadas com controles de privacidade. Treine o time sobre o que pode e o que não pode entrar em um prompt. Uma política de uso de IA clara reduz o Shadow AI muito mais do que firewalls.
No Brasil, a LGPD é clara: o controlador de dados responde pelos incidentes. Mas quando uma decisão de IA causa dano — uma análise de crédito errada, um diagnóstico incorreto, uma petição com jurisprudência inventada — a responsabilidade legal ainda está em construção. O PL de regulamentação da IA no Brasil está em tramitação. Até ser aprovado, o vazio jurídico é um risco real.
Como mitigar: documente toda decisão crítica gerada com auxílio de IA. Mantenha humano responsável por cada decisão que afete clientes ou terceiros. Consulte jurídico antes de usar IA em processos regulados (saúde, crédito, seguros, RH).
Passo a passo: como montar uma política de uso de IA
A Redação do Algoritmo Diário avalia que uma política de uso de IA não precisa ter 50 páginas para ser eficaz. Para PMEs, um documento de 2 a 4 páginas com regras claras e aplicadas é mais eficiente que um manual corporativo que ninguém lê. Aqui está o essencial:
-
1
Mapeie os usos atuais de IA no seu time
Antes de criar regras, descubra o que já acontece. Pergunte ao time: quais ferramentas de IA você usa? Com que frequência? Para quais tarefas? Você já inseriu dados de clientes? Os resultados vão revelar onde está o Shadow AI e quais riscos já existem sem que você saiba.
-
2
Defina uma lista de dados NUNCA enviáveis a IA externa
Liste explicitamente: CPF, CNPJ de clientes, dados de saúde, dados financeiros não públicos, segredos industriais, contratos confidenciais. Esses dados nunca devem entrar em APIs externas sem base legal na LGPD e contrato de processamento com o fornecedor. Coloque essa lista visível — na wiki interna, no onboarding, no Slack.
-
3
Configure limites de gasto em todas as APIs
OpenAI, Anthropic e Google Cloud permitem configurar limites mensais de gasto e alertas por e-mail. Faça isso antes de qualquer deploy em produção. Defina um limite conservador no primeiro mês e aumente gradualmente com base no uso real. Nunca deixe uma API de IA sem spending limit configurado.
-
4
Implemente a regra do "humano no loop" para decisões críticas
Qualquer decisão que afete clientes, contratos, saúde ou finanças deve ter um humano responsável pela aprovação final. A IA pode gerar a recomendação, mas não pode ser a única signatária. Documente quem aprovou e quando — essa trilha de auditoria pode ser decisiva em uma investigação da ANPD ou processo judicial.
Envie este formulário de Google Forms para seu time: "Quais ferramentas de IA você usa no trabalho?" (anônimo, sem julgamento). As respostas revelam em 30 minutos o que está acontecendo. Times que fazem essa auditoria descobrem, em média, 3 a 6 ferramentas de IA em uso que a TI não sabia. Saber é o primeiro passo para governar.
Guia de decisão por perfil de empresa
-
→
Se você usa IA apenas para produtividade pessoal (redação, pesquisa)
Risco baixo — regra simples. Nunca insira dados pessoais de clientes ou informações confidenciais em ferramentas de IA gratuitas ou de consumo. Use ferramentas corporativas com termos de serviço que não usam seus dados para treinamento (ChatGPT Enterprise, Claude for Work). Crie uma checklist de 3 perguntas antes de usar IA para qualquer tarefa: o que entra, o que sai, quem pode ver?
-
→
Se você usa IA em processos que tocam dados de clientes
Risco médio-alto — política obrigatória. Você precisa de uma política de uso de IA escrita, treinamento de equipe e um responsável pelo monitoramento. Mapeie todos os dados que passam por APIs de IA. Consulte jurídico sobre LGPD. Configure limites de spending em todas as APIs. Notifique a ANPD em caso de incidente em até 3 dias úteis.
-
→
Se você usa IA para tomar decisões automatizadas sobre clientes
Risco alto — exige governança estruturada. Decisões automáticas de crédito, triagem, precificação ou saúde exigem explicabilidade, trilha de auditoria e revisão humana. O PL de IA em tramitação vai tornar isso obrigatório. Prepare-se agora. Contrate consultoria especializada antes de escalar qualquer sistema de decisão automatizada.
-
→
Se você ainda não usa IA mas quer começar
Momento ideal para fazer certo desde o início. Comece com casos de uso internos e sem dados sensíveis: resumo de reuniões, geração de rascunhos, análise de documentos públicos. Estabeleça a política antes de expandir. Lembre: 72% das empresas brasileiras estão no estágio inicial de IA sem governança (Abiacom, 2025) — você pode sair na frente sendo mais cuidadoso desde o início.
FAQ — perguntas reais sobre riscos da IA no Brasil
IA não é uma ameaça existencial para sua empresa. É uma ferramenta com riscos conhecidos, mensuráveis e mitigáveis. O mercado global de governança e risco (GRC) atingiu US$ 82,56 bilhões em 2025 e cresce 14,85% ao ano — exatamente porque empresas maduras tratam governança de IA como parte da operação, não como burocracia. O Brasil ainda está em estágio inicial: 72% das empresas sem governança estruturada, segundo a Abiacom. Isso significa que as empresas que agirem agora — com políticas simples, limites de API configurados e um responsável pelo uso de IA — vão sair na frente quando a regulação apertar. E ela vai apertar. A ANPD está se estruturando. O PL de IA está em tramitação. A janela para fazer certo de forma voluntária é agora.
Na prática, o risco maior não é a IA em si — é a combinação de adoção acelerada com ausência de governança. Cada um dos 7 riscos deste artigo tem um ponto de intervenção claro. Alucinações se mitigam com verificação humana. LGPD se resolve com mapeamento de dados. Shadow AI se reduz com ferramentas oficiais e treinamento. Custo de API se controla com limites configurados antes do deploy. Não é preciso esperar uma crise para agir. Juliana, a diretora de clínicas de Curitiba com quem abrimos este artigo, aprendeu da forma mais cara. Você não precisa.
O que você achou deste artigo?
Qual risco é mais relevante para a sua empresa agora?
Acompanhe regulação e riscos de IA no Brasil
Mais de 40.000 profissionais recebem o Briefing Diário — análises sobre IA, LGPD, regulação e governança todo dia às 7h.
Quero receber gratuitamente →