"As pessoas estão perdidas" —
a brasileira que virou
guia de IA para milhões
Catharina Doria saiu de um emprego em governança de IA nos EUA, abriu o Instagram e começou a explicar o que grandes empresas de tecnologia preferem que você não entenda. Em menos de um ano, ultrapassou 300 mil seguidores e vídeos com 1 milhão de visualizações. Esta é a história de por que ela funciona — e o que ela quer que você saiba.
🎨 Imagem: Algoritmo Diário / DALL-E 3
Quem é Catharina Doria
A história de Catharina Doria começa com um livro. Depois de ler Algorithms of Oppression, ela tomou uma decisão radical: mudar completamente de carreira. "Eu li aquele livro e quando eu terminei eu falei, é isso, eu vou mudar de carreira, eu quero trabalhar com inteligência artificial", contou em entrevista à BBC Brasil.
Após se especializar, ela foi além do óbvio. Enquanto a maioria que entra em IA mira desenvolvimento de modelos ou engenharia de dados, Catharina escolhou um caminho menos glamoroso e mais urgente: governança algorítmica. Conseguiu emprego em uma empresa americana de governança de IA, onde passou a lidar diariamente com as falhas, vieses e riscos que os modelos carregam — mas que raramente chegam ao debate público.
"Eu tento ser o mais pé no chão possível, o mais sorridente possível... As pessoas precisam de um amigo que ajude a entender esse tema."
— Catharina Doria, para a BBC BrasilFoi aí que ela identificou o abismo. De um lado, especialistas e pesquisadores discutindo IA em conferências e papers. Do outro, sua própria mãe — e centenas de milhões de pessoas como ela — completamente perdidas diante de uma tecnologia que já tomava decisões sobre suas vidas.
Catharina passou por uma empresa americana de governança de IA antes de migrar para a criação de conteúdo. Essa experiência interna deu a ela uma perspectiva rara: ela conhece os bastidores do que vai mal — e traduz isso para o público geral.
Por que o conteúdo dela funciona
A resposta mais honesta veio da própria Catharina, em entrevista ao podcast da BBC Lê: "Está todo mundo perdido, independentemente da nacionalidade e da idade. Eu acho que é por isso que o meu conteúdo funciona."
Mas a fórmula vai além da demanda reprimida. Ela identificou três falhas estruturais na comunicação sobre IA que seu trabalho resolve:
-
1
Linguagem técnica que exclui. A maioria do conteúdo sobre IA pressupõe conhecimento que o público geral não tem. Catharina usa analogias do cotidiano — como aspiradores robô e algoritmos de redes sociais — para ancorar conceitos abstratos.
-
2
Tom de especialista distante. O campo de IA frequentemente comunica de cima para baixo. Ela se posiciona como quem está do lado de quem aprende, não acima. A abordagem de "amiga que explica" cria identificação imediata.
-
3
Foco em riscos que afetam pessoas reais. Em vez de debater AGI e singularidade tecnológica, ela fala sobre golpes com deepfake, privacidade de dados domésticos e como algoritmos manipulam o que você vê — problemas que já chegaram ao cotidiano brasileiro.
O trabalho de Catharina representa exatamente o que falta no ecossistema de conteúdo sobre IA no Brasil: tradução com responsabilidade. Não é sobre simplificar ao ponto de distorcer, mas sobre encontrar o nível certo de complexidade para cada público.
O que ela ensina que você precisa saber
O conteúdo de Catharina cobre três grandes eixos. Não é apenas popularização — há uma tese por trás: a IA já está moldando sua vida, e você tem direito de entender como.
1. Os riscos invisíveis do dia a dia
Um dos alertas mais virais foi sobre dispositivos domésticos conectados. "Nunca confie no seu aspirador robô", ela disse — e não era metáfora. Aspiradores com câmeras e mapas do seu apartamento coletam e transmitem dados que você jamais autorizou conscientemente. É o tipo de risco que nenhum tutorial de IA menciona, mas que está na casa de milhões de brasileiros.
Aspiradores robô com câmeras, assistentes de voz e TVs inteligentes coletam dados continuamente. Verifique nas configurações de cada dispositivo quais dados são enviados ao fabricante e como desativar o compartilhamento.
2. Como algoritmos constroem sua visão de mundo
"Hoje nós temos um algoritmo que define o que você vai ver ou não", afirmou Catharina. Esta é talvez a questão mais urgente: as pessoas começaram a usar IA intensamente, vários problemas surgiram, e as conversas sobre isso floresceram — mas a maioria das pessoas ainda não conecta o que vê no feed com as decisões algorítmicas que curadaram aquilo.
Catharina explica como algoritmos de recomendação criam câmaras de eco, amplificam conteúdo emocionalmente carregado e moldam opiniões políticas — sem que o usuário perceba que está dentro de um sistema otimizado para engajamento, não para verdade.
3. Deepfakes e a crise de autenticidade
Você consegue identificar se um vídeo foi gerado por IA? Em 2026, a resposta para a maioria das pessoas ainda é não. Catharina aborda os sinais de alerta para deepfakes — inconsistências em iluminação, movimentos de lábios fora de sincronia, artefatos em bordas de rosto — e explica por que tendências virais como "transforme-se em personagem Ghibli" têm implicações de privacidade que vão além do divertimento.
Ferramentas como Hive Moderation, AI or Not e o detector do Google permitem verificar imagens. Para vídeos, observe: bordas de cabelo/roupas com artefatos, piscadas irregulares, dentes com geometria estranha e iluminação inconsistente com o ambiente.
O Brasil e o déficit de letramento em IA
O Brasil ocupa o 3º lugar no mundo em uso do ChatGPT — os brasileiros enviam cerca de 140 milhões de mensagens por dia para a ferramenta, segundo a OpenAI. Mas uso intenso não equivale a uso consciente.
O trabalho de Catharina revela uma contradição central do Brasil tech: somos grandes consumidores de IA generativa, mas o debate sobre governança, ética e riscos ainda é restrito a bolsões acadêmicos e corporativos. A regulação de IA no Brasil caminha lentamente, e enquanto isso, quem não entende como a tecnologia funciona é o mais vulnerável aos seus efeitos colaterais.
"Mesmo com lei já é difícil, sem lei eu considero impossível que grandes corporações adotem por vontade própria uma versão mais transparente, correta da inteligência artificial."
— Catharina Doria, para a BBC BrasilA posição dela sobre regulação é direta: sem pressão legal, empresas não vão voluntariamente aumentar transparência. Isso coloca o letramento — a capacidade de entender e questionar os sistemas — como a defesa individual mais acessível enquanto as leis não chegam.
O Brasil tem a LGPD em vigor, mas o Projeto de Lei de Regulação de IA ainda tramita no Congresso. Enquanto isso, o uso de dados por sistemas de IA opera em uma zona cinzenta regulatória. Entender como seus dados são usados é a proteção mais concreta disponível hoje.
O que você pode fazer agora
-
1
Audite seus dispositivos conectados. Revise as permissões de câmera, microfone e localização de cada app. Dispositivos smart devem ter compartilhamento de dados desativado quando possível.
-
2
Questione o que o algoritmo te mostra. Antes de compartilhar um conteúdo, pergunte: por que este vídeo chegou até mim agora? Qual emoção ele tenta provocar? Quem se beneficia com sua atenção neste conteúdo?
-
3
Nunca use ferramentas de IA para dados sensíveis. Documentos com CPF, dados médicos, senhas ou informações de terceiros não devem ser inseridos em ferramentas de IA que não tenham política clara de não-retenção de dados.
-
4
Verifique antes de acreditar. Imagens, vídeos e áudios que parecem surpreendentemente reais merecem verificação. Use ferramentas de detecção ou simplesmente busque a fonte original antes de reagir ou compartilhar.
Perguntas Frequentes
Receba cobertura diária de IA
As notícias mais importantes sobre inteligência artificial no Brasil e no mundo, toda manhã às 7h no seu e-mail.
Quero receber gratuitamente →