A pergunta que durou 75 anos
Era 1950. Alan Turing publicou um artigo com uma pergunta que ainda ninguém respondeu de vez: as máquinas podem pensar? Setenta e cinco anos depois, você provavelmente usou hoje uma ferramenta construída sobre a resposta provisória que a humanidade foi montando desde então.
A história da inteligência artificial não é uma linha reta. É uma sequência de momentos de euforia e abandono, de duas escolas rivais que levaram décadas para descobrir que precisavam uma da outra, de pesquisadores que erraram as previsões e ainda assim colocaram os tijolos certos nos lugares certos. É também uma história de dinheiro, de guerra fria e de um paper de 2017 chamado Attention Is All You Need que mudou tudo sem que a maioria das pessoas percebesse na época.
Este artigo reconstrói esse percurso em linguagem acessível — sem fórmulas matemáticas, sem jargão desnecessário. Com o contexto que falta na maioria dos tutoriais de ferramentas e que faz toda a diferença para quem quer entender não só o que a IA faz, mas por que ela faz assim.
Os dilemas que você vê hoje com IA — substituição de empregos, limites do que os modelos entendem, consumo energético, concentração de poder — não são novos. Versões deles aparecem em cada década desta história. Quem conhece o padrão toma decisões melhores sobre quando acreditar no hype, quando ter cautela e como posicionar sua empresa nesse ciclo.
Turing e o teste que assombra até hoje
Alan Turing era um matemático britânico que havia ajudado a decifrar os códigos nazistas durante a Segunda Guerra Mundial — uma contribuição decisiva para o fim do conflito. Em 1950, publicou um artigo chamado Computing Machinery and Intelligence, que começava com uma pergunta aparentemente simples: as máquinas podem pensar?
Turing sabia que a pergunta era filosoficamente complicada, então propôs uma forma prática de testá-la. Chamou de jogo da imitação — mais tarde conhecido como Teste de Turing. A ideia: um interrogador humano conversa por escrito com dois interlocutores separados, sem ver nenhum deles. Um é humano, o outro é uma máquina. Se o interrogador não conseguir distinguir qual é qual, a máquina passou no teste.
O Teste de Turing nunca foi pensado como uma prova definitiva de inteligência — o próprio Turing era claro sobre isso. Era uma forma operacional de transformar a pergunta filosófica em algo mensurável. Mas a ideia ficou, e a tensão central que ela carrega — o que exatamente é "pensar" e como sabemos quando algo está fazendo isso — continua sem resposta definitiva em 2026.
O que Turing antecipou com clareza, porém, foi o conceito de aprendizado de máquina. Em vez de programar cada regra explicitamente, ele argumentou que sistemas deveriam ser criados para aprender com os dados — como uma criança preenchendo um caderno em branco. Essa intuição levaria décadas para se tornar dominante, mas estava certa.
A possibilidade de criar seres artificiais que trabalham para os humanos aparece na mitologia grega: Talos, o gigante de bronze criado por Hefesto para proteger a ilha de Creta. O debate sobre automatizar tarefas e eliminar a distinção entre mestres e trabalhadores é anterior ao computador por milênios — o que muda é a escala e a velocidade. Os dilemas de hoje sobre substituição de empregos têm raízes que vão muito além do Silicon Valley.
As duas escolas que dividiram a IA por décadas
Em 1956, na Conferência de Dartmouth, o professor John McCarthy reuniu pesquisadores para discutir como fazer máquinas inteligentes. Foi ali que o termo inteligência artificial foi cunhado — uma escolha deliberada, segundo pesquisadores, para parecer sofisticada o suficiente para atrair financiamento e ambição científica.
A conferência revelou que os pesquisadores tinham visões radicalmente diferentes sobre o que deveria ser a IA. Duas escolas emergiram e dominariam o campo por décadas:
Por décadas, os simbolistas dominaram — seus sistemas eram mais fáceis de construir e de explicar. Os conexionistas tinham a intuição certa, mas esbarravam em um problema concreto: faltava poder computacional e faltavam dados. Treinar redes neurais era caro e lento. Os dados disponíveis eram limitados.
Enquanto isso, do lado simbolista, um chatbot chamado ELIZA virou um fenômeno cultural nos anos 1960. Criado no MIT por Joseph Weizenbaum, ELIZA não entendia linguagem — apenas identificava palavras-chave e respondia com padrões pré-definidos. Era uma simulação sofisticada de compreensão, não compreensão de fato. O próprio criador ficou perturbado quando sua secretária ficou emocionalmente envolvida com a máquina e pediu privacidade para conversar com ela. Weizenbaum passou anos insistindo: a máquina não era inteligente.
A secretária de Weizenbaum que se emocionou com ELIZA não era ingênua — o cérebro humano está biologicamente wired para atribuir intenção e emoção a qualquer coisa que pareça responder de forma coerente. Esse mecanismo não mudou. Em 2026, pessoas desenvolvem apego emocional a chatbots e agentes de IA da mesma forma. Entender que há uma diferença entre "simular compreensão" e "compreender de fato" é uma das distinções mais importantes para usar IA de forma crítica.
Os invernos da IA — quando o hype virou ceticismo
Em 1973, o matemático James Lighthill publicou um relatório devastador para o governo britânico. Seu argumento: a IA só funcionava em "mundos de brinquedo" — ambientes controlados como jogos ou problemas bem definidos. No mundo real, o número de variáveis cresce exponencialmente. Ele chamou isso de explosão combinatória. Por mais sofisticado que fosse um sistema baseado em regras, ele quebraria diante da complexidade da realidade.
O relatório levou ao corte de financiamento na Grã-Bretanha e depois nos Estados Unidos. Começava o primeiro inverno da IA — um período de abandono, ceticismo e promessas não cumpridas. A percepção era de que a IA entregava muito mais hype do que resultado.
Nos anos 1980, houve um breve renascimento com os sistemas especialistas — programas simbólicos para domínios específicos como diagnóstico médico, análise financeira e configuração industrial. Empresas investiram bilhões. Mas os sistemas eram frágeis: qualquer coisa fora do escopo previsto os derrubava. Um segundo inverno veio no fim dos anos 1980.
O padrão se repetiria várias vezes ao longo do século: promessa ambiciosa, investimento, decepção, recuo. A comunidade científica cunhou o termo "ciclo do hype" — e a IA se tornaria um dos casos mais estudados desse fenômeno. Entender esse padrão é crucial para quem toma decisões baseadas em promessas de fornecedores de IA hoje.
O renascimento: dados, GPUs e jogos
A virada não veio de um único momento — foi uma convergência de três fatores que se acumularam ao longo dos anos 2000 e explodiram na década de 2010.
O primeiro fator foi o dado. Com a popularização da internet nos anos 2000, pela primeira vez havia quantidades massivas de texto, imagens e comportamento humano registrado digitalmente. As redes sociais amplificaram isso. A Internet das Coisas adicionou dados de sensores físicos. De repente, o problema que os conexionistas sempre tiveram — falta de dados para treinar redes neurais — havia sido resolvido pelo mundo.
O segundo fator foram as GPUs. As placas de vídeo desenvolvidas para jogos eletrônicos resultaram numa arquitetura de processamento paralelo que era ideal para treinar redes neurais. O que levava meses em CPUs tradicionais passou a levar dias. O custo de treinamento despencou.
O terceiro fator foram os jogos. Ambientes controlados com regras claras permitiam medir o progresso da IA de forma objetiva — e gerar manchetes que o público entendia. Dois momentos se tornaram mundialmente conhecidos:
Em paralelo, em 2012, a rede neural AlexNet venceu uma competição de reconhecimento de imagens com margem tão grande que redefiniu o campo. Pela primeira vez, conexionistas demonstraram superioridade em um problema real e mensurável. O paradigma havia mudado. Empresas como Google, Facebook, Microsoft e Amazon começaram a contratar pesquisadores de aprendizado profundo em ritmo acelerado.
O paper que mudou tudo: Attention Is All You Need
Em 2017, uma equipe de pesquisadores do Google publicou um artigo de 15 páginas com um título modesto: Attention Is All You Need — Atenção É Tudo que Você Precisa. O objetivo original era melhorar a tradução automática e as buscas do Google. O impacto foi muito além.
O problema que o paper resolvia: modelos de linguagem anteriores liam texto palavra por palavra, na sequência. Isso criava dois problemas. Primeiro, eram lentos para textos longos. Segundo, perdiam o contexto: ao chegar na palavra 50, já haviam "esquecido" parte do que estava na palavra 5.
O Transformer trouxe uma ideia diferente: olhar todas as palavras de uma vez e calcular quanto cada palavra "presta atenção" nas outras. Esse mecanismo — chamado de auto-atenção — permitiu que o modelo entendesse o significado pelo contexto, não pela posição.
Quando o modelo processa a palavra "comeu" nesta frase, ele distribui atenção para as outras palavras:
O mesmo mecanismo resolve ambiguidades: a palavra "banco" recebe atenção diferente ao lado de "fechado" (banco financeiro) versus "da praça" (banco de sentar). O modelo aprende isso — não por regra programada, mas por ter visto o padrão milhões de vezes.
A partir do Transformer, nasceram os LLMs — Large Language Models, os grandes modelos de linguagem. O processo de treinamento é, na essência, uma tarefa de previsão: dado um texto, qual é a próxima palavra? Ao tentar resolver esse problema com bilhões de exemplos, os modelos aprendem gramática, fatos, raciocínio e nuances de linguagem — não porque alguém programou essas coisas, mas como efeito emergente do treinamento.
A OpenAI pegou a arquitetura Transformer e foi além. Treinando com mais de 7 mil livros não publicados de gêneros variados, percebeu que ao tentar gerar frases convincentes o sistema também aprendia a responder perguntas e conversar. A tecnologia criada para traduzir frases havia se tornado a base de algo muito maior.
Do GPT-1 ao ChatGPT — e o que veio depois
Em 2018, com apenas três anos de existência, a OpenAI lançou o GPT-1. GPT significa Generative Pre-trained Transformer — Transformer Generativo Pré-Treinado. O modelo havia sido treinado em uma grande base de texto para aprender padrões de linguagem, e depois gerava frases novas a partir desse aprendizado.
A empresa havia sido fundada em 2015 por um grupo que incluía Elon Musk e Sam Altman, com a promessa de desenvolver IA de forma aberta e voltada ao benefício da humanidade. Em 2018, Musk deixou a organização após divergências sobre os rumos — uma saída que geraria anos de rivalidade pública e processos judiciais.
A fronteira atual: AGI, limites reais e desafios abertos
Os porta-vozes das grandes empresas de IA afirmam que estamos próximos da AGI — Inteligência Artificial Geral, uma tecnologia que superaria a inteligência humana em praticamente qualquer tarefa cognitiva. Sam Altman, CEO da OpenAI, faz declarações nessa direção com regularidade. Mas esse argumento tem leituras bem diferentes dependendo de quem você pergunta.
Jornalistas e pesquisadores críticos — como Karen Howe, no livro Império da IA — argumentam que a narrativa da AGI serve a um propósito específico: convencer governos e investidores de que apenas essas grandes empresas deveriam controlar esse poder para garantir que fosse usado para o bem da humanidade. Na prática, seria uma estratégia para manter o fluxo de capital e de recursos naturais — já que sistemas de IA consomem enormes quantidades de energia e água.
O que os modelos atuais ainda não conseguem fazer
Pesquisadores sérios são diretos sobre os limites dos LLMs atuais. Por mais impressionantes que sejam o GPT-5, o Gemini e o Claude, eles têm lacunas estruturais que não serão resolvidas com mais dados ou mais parâmetros:
- Senso comum — modelos falham em inferências que qualquer criança faz intuitivamente
- Causalidade — entendem correlação, têm dificuldade com causa e efeito genuínos
- Raciocínio contrafactual — "e se eu tivesse feito diferente?" — algo que não emerge de dados passados
- Intervenção — prever consequências de ações novas em sistemas que nunca foram observados
- Eficiência de dados — humanos aprendem a dirigir em poucas horas; modelos precisam de bilhões de exemplos
Treinar e rodar grandes modelos de linguagem consome quantidades extraordinárias de energia e água para resfriamento de data centers. O investimento das big techs em infraestrutura de IA chegará a quase US$ 700 bilhões em 2026. Pesquisadores apontam que reduzir o impacto ambiental — seja através de modelos menores e mais eficientes, seja por arquiteturas de aprendizado mais inteligentes que precisam de menos dados — é um dos grandes desafios técnicos e éticos da próxima fase da IA.
A história da IA é, em grande parte, a história de previsões erradas feitas com muita confiança. Turing previu que máquinas pensariam em 50 anos — acertou o prazo errado para a pergunta certa. O New York Times de 1958 previu que o Perceptron seria consciente — errou por décadas. Em 2022, especialistas disseram que o ChatGPT não seria tão útil quanto parecia. Em 2026, empresas afirmam que a AGI está próxima. A lição da história não é ceticismo total — é calibração cuidadosa. As inovações que mudaram tudo vieram de pesquisas que pareciam impraticáveis por décadas. O que parece impossível hoje pode não ser. Mas os prazos e as promessas sempre deveriam ser lidos com uma memória histórica ativa.
Perguntas Frequentes
-
Quem inventou a inteligência artificial?Não há um único inventor. Alan Turing formulou as bases teóricas em 1950. O termo "inteligência artificial" foi cunhado por John McCarthy na Conferência de Dartmouth em 1956. Nos anos seguintes, dezenas de pesquisadores em universidades dos EUA, Reino Unido e outros países construíram os primeiros sistemas práticos. A IA moderna é resultado de décadas de contribuições acumuladas de milhares de pesquisadores — com avanços críticos de equipes no Google (Transformer, 2017), OpenAI (GPT, 2018–2022) e DeepMind (AlphaGo, 2016), entre muitas outras.
-
O que é o Teste de Turing e ele ainda é relevante?O Teste de Turing propõe que uma máquina pode ser considerada "inteligente" se um interrogador humano não conseguir distingui-la de um humano em conversa por texto. Modelos como GPT-4 e Claude já passam por versões do teste em muitos contextos — mas isso não significa que sejam "inteligentes" no sentido filosófico amplo. O próprio Turing nunca pretendeu que o teste fosse a definição final de inteligência, apenas uma forma operacional de medir progresso. Em 2026, o debate relevante não é mais "a máquina passa no Teste de Turing?" — é "o que exatamente as máquinas ainda não conseguem fazer que os humanos conseguem?"
-
O que é um LLM e como ele é diferente de uma IA simbólica?Um LLM (Large Language Model) é um modelo treinado em quantidades massivas de texto para aprender a prever a próxima palavra — e, como efeito emergente desse treinamento, aprende gramática, fatos, raciocínio e linguagem. Não segue regras explicitamente programadas. Uma IA simbólica (como os sistemas especialistas dos anos 1980) opera por regras definidas pelo programador: "se o paciente tem febre acima de 38°C e tosse, considere estas possibilidades." LLMs são mais flexíveis e generalistas, mas menos transparentes — é difícil saber exatamente por que deram uma resposta. IA simbólica é mais explicável, mas frágil fora do escopo programado.
-
O que causou os "invernos da IA" e eles podem voltar?Os invernos da IA foram períodos de corte de financiamento e abandono da área, causados pela lacuna entre as promessas feitas e os resultados entregues. Aconteceram principalmente nos anos 1970 e no final dos anos 1980. A causa estrutural era sempre a mesma: expectativas infladas por quem precisava de recursos (pesquisadores, empresas) e frustração de quem financiava quando os resultados não chegavam no prazo prometido. Podem voltar? Historicamente, o padrão se repete. Dados de 2025 mostram que 42% das empresas já abandonaram a maioria de suas iniciativas de IA — não por falta de tecnologia, mas por casos de uso mal escolhidos e ROI não demonstrado. O risco de um "mini-inverno" setorial existe se a pressão por retorno financeiro dos investimentos atuais não for correspondida por resultados concretos.
-
O que é AGI e quando vai acontecer?AGI (Artificial General Intelligence — Inteligência Artificial Geral) é um sistema hipotético capaz de realizar qualquer tarefa cognitiva que um humano consegue, com desempenho equivalente ou superior. Não existe ainda. Previsões sobre quando chegará variam enormemente: Sam Altman (OpenAI) fala em "alguns anos"; pesquisadores mais cautelosos dizem décadas; outros argumentam que a definição é tão imprecisa que a questão não tem resposta significativa. O que é claro: modelos atuais, por mais capazes que sejam, têm lacunas fundamentais em senso comum, causalidade e raciocínio contrafactual que pesquisadores sérios reconhecem não saberem ainda como resolver. Tratar declarações sobre AGI como fatos é um erro — tratar como impossibilidade também.
📚 Veja também no Algoritmo Diário
Fontes primárias: Turing, A.M. (1950) — Computing Machinery and Intelligence · Vaswani et al. (2017) — Attention Is All You Need
O contexto que transforma ferramentas em estratégia
Todo dia útil: o que aconteceu em IA, por que importa e o que fazer com isso. Sem hype, sem jargão.
Assinar gratuitamente →O que você achou deste guia histórico?
Qual momento da história da IA mais te surpreendeu?