Nos últimos meses, ficou quase impossível acompanhar o setor de inteligência artificial sem esbarrar em alguma declaração bombástica sobre AGI, a chamada Inteligência Artificial Geral. É esse sistema hipotético capaz de realizar qualquer tarefa cognitiva que um ser humano consegue executar. Sam Altman, da OpenAI, sugeriu que podemos estar "a alguns anos" de distância. Outros líderes do setor falam em 2027, alguns ainda insistem que já chegamos lá. O entusiasmo é genuíno, mas a pergunta que não consigo deixar de fazer é: entusiasmo com base em quê, exatamente?
Quero ser honesto: não sou um pessimista tecnológico. Acho os modelos de linguagem atuais impressionantes de formas que eu não esperava ver tão cedo. Mas há uma diferença enorme entre "impressionante" e "AGI", e acho que essa diferença está sendo apagada por narrativas que servem mais a interesses comerciais do que à realidade técnica.
O que estamos chamando de AGI, afinal?
Esse é o primeiro problema, e ele é mais sério do que parece. Não existe uma definição consensual de AGI. Para alguns, é um sistema que consegue aprender qualquer coisa que um humano aprende. Para outros, basta superar humanos em benchmarks suficientemente amplos. Para outros ainda, é uma questão de ter agência, objetivos próprios, capacidade de planejamento de longo prazo.
Quando as previsões são tão vagas quanto a definição, fica fácil mover o alvo. Se amanhã um modelo conseguir passar em testes de raciocínio avançado, haverá quem diga "chegamos lá", e haverá quem discorde. Essa ambiguidade não é um detalhe técnico: ela é o coração do problema. Estamos correndo em direção a um destino que ninguém consegue descrever com precisão.
O que os modelos atuais são (e o que não são)
Os grandes modelos de linguagem são sistemas sofisticados de reconhecimento de padrões estatísticos. Eles aprenderam a prever a próxima palavra em sequências de texto com uma habilidade que, em muitos contextos, parece indistinguível de compreensão. Mas parece não é o mesmo que é.
Quando um modelo erra de forma estranha, como confundir datas triviais, falhar em problemas de lógica simples que qualquer criança de dez anos resolveria, ou inventar fatos com a mesma confiança com que apresenta informações corretas, estamos vendo algo importante: a ausência de um modelo de mundo coerente. O sistema não sabe o que diz. Ele infere o que é provável dizer, dado o contexto.
Isso não é um bug que será corrigido na próxima versão. É uma consequência da arquitetura. E escalar esses modelos, colocar mais parâmetros, mais dados, mais poder computacional, tem produzido ganhos reais, mas não há evidências sólidas de que essa escala seja suficiente para cruzar a fronteira entre "padrões sofisticados" e "compreensão genuína".

O problema dos benchmarks
Há um padrão que se repete com frequência preocupante: um novo modelo é lançado, supera humanos em algum benchmark importante, e a narrativa de AGI iminente ganha novo fôlego. Só que os benchmarks têm um problema fundamental: eles medem o que medem, não o que queremos medir.
A cada vez que um modelo domina um conjunto de testes, a comunidade percebe que aqueles testes estavam capturando algo mais superficial do que imaginávamos. E então cria-se um novo benchmark, mais difícil, mais específico. O ciclo se repete. Isso não é progresso em direção à AGI; é progresso em resolver os testes que criamos para identificá-la, o que é bem diferente.
Existe até um nome informal para isso: "benchmark contamination", a possibilidade de que os dados de treinamento dos modelos já incluam respostas aos testes que usamos para avaliá-los. A fronteira entre "o modelo aprendeu a raciocinar" e "o modelo memorizou padrões que parecem raciocínio" é, na prática, muito difícil de traçar.
Por que 2027 é um prazo irrealista
Não estou dizendo que AGI é impossível. Estou dizendo que não há nenhuma razão técnica concreta para crer que acontecerá em 2027 especificamente, e há razões bastante sólidas para duvidar.
Primeiro, as leis de escala estão mostrando sinais de esgotamento. Os ganhos que víamos com cada aumento de capacidade computacional estão diminuindo. Os laboratórios estão investindo quantias enormes e os avanços, embora existam, são incrementais. Isso não é uma crise, mas contradiz a narrativa de que estamos em uma curva exponencial que inevitavelmente nos leva à AGI em poucos anos.
Segundo, há problemas fundamentais que ninguém resolveu. Raciocínio causal, ou seja, entender por que as coisas acontecem e não apenas correlacionar eventos, continua sendo um desafio real. A capacidade de aprender a partir de poucos exemplos, da forma como humanos fazem, ainda está longe do que os modelos atuais conseguem. A transferência de conhecimento entre domínios muito diferentes é limitada.
Terceiro, e esse é o ponto que mais me preocupa, ninguém resolveu o problema do alinhamento. Mesmo que surgisse algo que pudéssemos chamar de AGI amanhã, não temos ferramentas confiáveis para garantir que esse sistema teria objetivos compatíveis com o bem humano. Lançar isso em 2027, sob pressão competitiva enorme, com regulação ainda engatinhando, seria uma aposta irresponsável com consequências que ninguém consegue prever adequadamente.
O custo da narrativa equivocada
Há algo que me incomoda profundamente na corrida para declarar AGI iminente: ela distorce prioridades.
Quando o discurso dominante é "AGI em dois anos", os recursos (humanos, financeiros, políticos) se concentram em uma corrida que pode não fazer sentido do ponto de vista técnico, mas faz todo o sentido do ponto de vista de captação de investimento. Enquanto isso, problemas reais e presentes de IA ficam em segundo plano: vieses nos sistemas de decisão automatizada, desinformação gerada por modelos, impactos no mercado de trabalho, concentração de poder nas mãos de pouquíssimas organizações.
A AGI imaginária de 2027 rouba atenção da IA real de 2026.
Além disso, quando pessoas comuns e tomadores de decisão internalizam que estamos prestes a criar uma inteligência superior à humana, as reações ficam polarizadas entre o tecno-otimismo acrítico e o pânico existencial. Nenhuma das duas posturas é útil. A primeira ignora riscos reais; a segunda paralisa a capacidade de agir com sensatez.
O que eu preferiria ver
Preferia um setor de IA que falasse com mais rigor sobre o que os sistemas atuais fazem e o que não fazem. Que investisse tanto em segurança e alinhamento quanto em capacidade. Que tivesse humildade para dizer "não sabemos quando isso vai acontecer, e talvez nunca aconteça da forma que imaginamos".
Preferia que os prazos de 2027 fossem tratados como o que são: apostas especulativas feitas por pessoas com interesse direto em manter o hype elevado, não como previsões técnicas embasadas.
E preferia, honestamente, que a conversa sobre AGI fosse menos sobre quem vai "chegar lá primeiro" e mais sobre se faz sentido ir para lá da forma como estamos indo. Correndo, sem parar para pensar nas consequências, com regulação tentando desesperadamente alcançar uma tecnologia que avança mais rápido do que nossa capacidade coletiva de entendê-la.
Talvez esteja errado. Talvez em 2028 eu releia esse texto e me sinta ingênuo. Mas acho que a dúvida rigorosa, neste momento, vale mais do que a certeza confortável.
Daniel Palmares escreve sobre tecnologia, e onde ela se encontra com a realidade de forma desconfortável.
