Quem é Catharina Doria

A história de Catharina Doria começa com um livro. Depois de ler Algorithms of Oppression, ela tomou uma decisão radical: mudar completamente de carreira. "Eu li aquele livro e quando eu terminei eu falei, é isso, eu vou mudar de carreira, eu quero trabalhar com inteligência artificial", contou em entrevista à BBC Brasil.

Após se especializar, ela foi além do óbvio. Enquanto a maioria que entra em IA mira desenvolvimento de modelos ou engenharia de dados, Catharina escolhou um caminho menos glamoroso e mais urgente: governança algorítmica. Conseguiu emprego em uma empresa americana de governança de IA, onde passou a lidar diariamente com as falhas, vieses e riscos que os modelos carregam — mas que raramente chegam ao debate público.

"Eu tento ser o mais pé no chão possível, o mais sorridente possível... As pessoas precisam de um amigo que ajude a entender esse tema."

— Catharina Doria, para a BBC Brasil

Foi aí que ela identificou o abismo. De um lado, especialistas e pesquisadores discutindo IA em conferências e papers. Do outro, sua própria mãe — e centenas de milhões de pessoas como ela — completamente perdidas diante de uma tecnologia que já tomava decisões sobre suas vidas.

Trajetória
De governança corporativa ao letramento público

Catharina passou por uma empresa americana de governança de IA antes de migrar para a criação de conteúdo. Essa experiência interna deu a ela uma perspectiva rara: ela conhece os bastidores do que vai mal — e traduz isso para o público geral.

Por que o conteúdo dela funciona

A resposta mais honesta veio da própria Catharina, em entrevista ao podcast da BBC Lê: "Está todo mundo perdido, independentemente da nacionalidade e da idade. Eu acho que é por isso que o meu conteúdo funciona."

Mas a fórmula vai além da demanda reprimida. Ela identificou três falhas estruturais na comunicação sobre IA que seu trabalho resolve:

  • 1
    Linguagem técnica que exclui. A maioria do conteúdo sobre IA pressupõe conhecimento que o público geral não tem. Catharina usa analogias do cotidiano — como aspiradores robô e algoritmos de redes sociais — para ancorar conceitos abstratos.
  • 2
    Tom de especialista distante. O campo de IA frequentemente comunica de cima para baixo. Ela se posiciona como quem está do lado de quem aprende, não acima. A abordagem de "amiga que explica" cria identificação imediata.
  • 3
    Foco em riscos que afetam pessoas reais. Em vez de debater AGI e singularidade tecnológica, ela fala sobre golpes com deepfake, privacidade de dados domésticos e como algoritmos manipulam o que você vê — problemas que já chegaram ao cotidiano brasileiro.
💡
Por que isso importa para o Algoritmo Diário

O trabalho de Catharina representa exatamente o que falta no ecossistema de conteúdo sobre IA no Brasil: tradução com responsabilidade. Não é sobre simplificar ao ponto de distorcer, mas sobre encontrar o nível certo de complexidade para cada público.

O que ela ensina que você precisa saber

O conteúdo de Catharina cobre três grandes eixos. Não é apenas popularização — há uma tese por trás: a IA já está moldando sua vida, e você tem direito de entender como.

1. Os riscos invisíveis do dia a dia

Um dos alertas mais virais foi sobre dispositivos domésticos conectados. "Nunca confie no seu aspirador robô", ela disse — e não era metáfora. Aspiradores com câmeras e mapas do seu apartamento coletam e transmitem dados que você jamais autorizou conscientemente. É o tipo de risco que nenhum tutorial de IA menciona, mas que está na casa de milhões de brasileiros.

⚠️
Atenção com dispositivos smart

Aspiradores robô com câmeras, assistentes de voz e TVs inteligentes coletam dados continuamente. Verifique nas configurações de cada dispositivo quais dados são enviados ao fabricante e como desativar o compartilhamento.

2. Como algoritmos constroem sua visão de mundo

"Hoje nós temos um algoritmo que define o que você vai ver ou não", afirmou Catharina. Esta é talvez a questão mais urgente: as pessoas começaram a usar IA intensamente, vários problemas surgiram, e as conversas sobre isso floresceram — mas a maioria das pessoas ainda não conecta o que vê no feed com as decisões algorítmicas que curadaram aquilo.

Catharina explica como algoritmos de recomendação criam câmaras de eco, amplificam conteúdo emocionalmente carregado e moldam opiniões políticas — sem que o usuário perceba que está dentro de um sistema otimizado para engajamento, não para verdade.

3. Deepfakes e a crise de autenticidade

Você consegue identificar se um vídeo foi gerado por IA? Em 2026, a resposta para a maioria das pessoas ainda é não. Catharina aborda os sinais de alerta para deepfakes — inconsistências em iluminação, movimentos de lábios fora de sincronia, artefatos em bordas de rosto — e explica por que tendências virais como "transforme-se em personagem Ghibli" têm implicações de privacidade que vão além do divertimento.

🔍
Como verificar se um conteúdo é gerado por IA

Ferramentas como Hive Moderation, AI or Not e o detector do Google permitem verificar imagens. Para vídeos, observe: bordas de cabelo/roupas com artefatos, piscadas irregulares, dentes com geometria estranha e iluminação inconsistente com o ambiente.

O Brasil e o déficit de letramento em IA

O Brasil ocupa o 3º lugar no mundo em uso do ChatGPT — os brasileiros enviam cerca de 140 milhões de mensagens por dia para a ferramenta, segundo a OpenAI. Mas uso intenso não equivale a uso consciente.

O trabalho de Catharina revela uma contradição central do Brasil tech: somos grandes consumidores de IA generativa, mas o debate sobre governança, ética e riscos ainda é restrito a bolsões acadêmicos e corporativos. A regulação de IA no Brasil caminha lentamente, e enquanto isso, quem não entende como a tecnologia funciona é o mais vulnerável aos seus efeitos colaterais.

"Mesmo com lei já é difícil, sem lei eu considero impossível que grandes corporações adotem por vontade própria uma versão mais transparente, correta da inteligência artificial."

— Catharina Doria, para a BBC Brasil

A posição dela sobre regulação é direta: sem pressão legal, empresas não vão voluntariamente aumentar transparência. Isso coloca o letramento — a capacidade de entender e questionar os sistemas — como a defesa individual mais acessível enquanto as leis não chegam.

Contexto regulatório
LGPD, PL da IA e o gap de proteção

O Brasil tem a LGPD em vigor, mas o Projeto de Lei de Regulação de IA ainda tramita no Congresso. Enquanto isso, o uso de dados por sistemas de IA opera em uma zona cinzenta regulatória. Entender como seus dados são usados é a proteção mais concreta disponível hoje.

O que você pode fazer agora

  • 1
    Audite seus dispositivos conectados. Revise as permissões de câmera, microfone e localização de cada app. Dispositivos smart devem ter compartilhamento de dados desativado quando possível.
  • 2
    Questione o que o algoritmo te mostra. Antes de compartilhar um conteúdo, pergunte: por que este vídeo chegou até mim agora? Qual emoção ele tenta provocar? Quem se beneficia com sua atenção neste conteúdo?
  • 3
    Nunca use ferramentas de IA para dados sensíveis. Documentos com CPF, dados médicos, senhas ou informações de terceiros não devem ser inseridos em ferramentas de IA que não tenham política clara de não-retenção de dados.
  • 4
    Verifique antes de acreditar. Imagens, vídeos e áudios que parecem surpreendentemente reais merecem verificação. Use ferramentas de detecção ou simplesmente busque a fonte original antes de reagir ou compartilhar.

Perguntas Frequentes

Quem é Catharina Doria?
Catharina Doria é especialista em letramento de IA e governança algorítmica. Trabalhou em uma empresa americana de governança de IA antes de migrar para a criação de conteúdo educativo. Conquistou mais de 300 mil seguidores no Instagram com vídeos acessíveis sobre riscos, ética e funcionamento da inteligência artificial.
O que é letramento em IA?
Letramento em IA é a capacidade de entender, usar criticamente e se proteger das tecnologias de inteligência artificial no cotidiano. Inclui saber identificar deepfakes, entender como algoritmos influenciam o que você vê online, reconhecer riscos de privacidade e tomar decisões informadas sobre quando e como usar ferramentas de IA.
Como se proteger dos riscos da IA no cotidiano?
As principais recomendações incluem: não inserir dados sensíveis em ferramentas de IA sem verificar a política de privacidade; ter cuidado com dispositivos conectados como aspiradores robô; entender que algoritmos de redes sociais moldam sua visão de mundo; e desconfiar de vídeos e áudios que parecem autênticos demais para ser verdade.
Por que o conteúdo de Catharina Doria viralizou?
Segundo ela mesma, o conteúdo funciona porque "está todo mundo perdido, independentemente da nacionalidade e da idade." Ela se posiciona como um amigo que explica sem julgamento, usando exemplos do cotidiano, o que ressoa com pessoas que se sentem excluídas do debate técnico sobre IA.

Receba cobertura diária de IA

As notícias mais importantes sobre inteligência artificial no Brasil e no mundo, toda manhã às 7h no seu e-mail.

Quero receber gratuitamente →