A confortável erosão da inteligência
Fevereiro 26, 2026Há uma promessa luminosa na inteligência artificial que se cola facilmente ao nosso imaginário: seremos mais rápidos, mais eficientes, mais produtivos, quase sobre‑humanos com um cursor a brilhar no ecrã e um assistente invisível a completar as frases por nós. Mas há um lado mais sombrio da história, menos fotogénico, que começa a ganhar voz nas evidências empíricas: quanto mais nos encostamos à máquina, menos treinamos o músculo da compreensão, da dúvida, do erro que nos obriga a pensar.
O estudo de Judy Hanwen Shen e Alex Tamkin, “How AI Impacts Skill Formation”, é quase um espelho incômodo da nossa relação com a tecnologia. Em vez de se perderem em futurologias, decidiram observar algo muito concreto: o que acontece quando programadores aprendem uma nova biblioteca em Python com e sem a ajuda de um assistente de IA.
É um cenário banal do trabalho contemporâneo: há um problema para resolver, há uma ferramenta nova, há prazos, há ansiedade, e há um botão de chat que promete atalhos. De um lado, um grupo escreve código à mão, tropeça, depura, volta atrás, encosta a cabeça à parede invisível da lógica e do erro. Do outro, um grupo que pode conversar com um modelo de IA capaz de escrever, corrigir e explicar código quase instantaneamente.
A pergunta é simples e brutal: quem aprende realmente alguma coisa no fim deste processo.
Os resultados são claros e desconfortáveis. O grupo que teve acesso à IA acabou a saber menos sobre aquilo que estava a tentar aprender. Não é um pouco menos, não é uma nuance académica: em média, 17 por cento de diferença na pontuação de um teste sobre a biblioteca usada, o equivalente a descer dois níveis de nota.
E não há sequer a compensação do velho pacto com o diabo tecnológico: “tudo bem sermos menos profundos, desde que sejamos muito mais rápidos”. A tal aceleração milagrosa simplesmente não aparece de forma significativa no tempo de conclusão das tarefas. Houve quem, ao delegar quase tudo na IA, conseguisse ser mais rápido, sim, mas ao preço óbvio de não ficar a saber realmente o que estava a usar.
A inteligência não se mede só em linhas de código a compilar sem erro. Mede‑se na capacidade de prever o que pode falhar, de perceber porque falhou, de desmontar uma solução e voltar a montá‑la, de intuir as consequências de uma escolha técnica. Tudo isto exige fricção, insistência, esforço que a IA, quando mal usada, nos convida a evitar.
Uma das partes mais interessantes do estudo é a forma como os autores descrevem os diferentes modos de relação das pessoas com a IA. Há quem trate o assistente como um empregado obediente: “faz o código por mim, eu copio e colo”. Este é o padrão de delegação total, rápido e vazio, em que o humano se transforma num canal de passagem entre a máquina e o repositório de código.
Depois há variantes mais subtis, mas igualmente perigosas para a inteligência. O uso da IA como bengala de debugging constante, o hábito de perguntar tudo, de pedir verificação de cada passo, de procurar validação na máquina em vez de arriscar o próprio juízo. O resultado é uma sensação de eficácia durante o processo, mas uma quebra clara na capacidade de depurar e compreender por conta própria quando a IA é retirada da equação.
Curiosamente, os melhores resultados de aprendizagem aparecem quando a IA é tratada como interlocutor conceptual, não como executor. Quando é usada para explicar princípios, esclarecer dúvidas sobre a lógica interna de uma biblioteca, ou ajudar a ler melhor o que já escrevemos, mantendo o esforço de pensar e de errar do lado humano.
O problema não é a IA em si. É a nossa pressa em abdicar do incómodo de pensar.
O grupo que trabalhou sem IA relatou mais erros, mais dificuldades, mais quedas. Também relatou uma maior sensação de aprendizagem. E, objetivamente, ficou com melhores competências: compreendia melhor os conceitos, lia melhor o código, detectava melhor bugs.
Há algo quase pedagógico neste desconforto. É o velho “aprender fazendo”, mas também o “aprender falhando”, confrontado com uma cultura que nos treina para detestar qualquer atrito. A IA aparece como analgésico cognitivo: tira a dor, tira o sintoma, mas se abusarmos dela começa a atrofiar a capacidade de auto‑cura, de auto‑correção.
É fácil romanticizar o erro quando já passámos por ele e o atravessámos. É mais difícil aceitá‑lo quando o botão de atalho está ali, pronto a escrever por nós aquilo que, com tempo, poderíamos escrever melhor, de forma mais consciente, mais nossa. Mas a aprendizagem precisa desse tempo, dessa fricção, desse incómodo.
O estudo não fala de perda de QI, não inventa manchetes fáceis sobre “a IA está a tornar‑nos burros”. O que mostra, com a serenidade fria dos números, é algo ainda mais sério: estamos a abdicar de competências nucleares de supervisão e de compreensão em troca de uma sensação de produtividade imediata que nem sempre se concretiza.
Num mundo em que a IA será cada vez mais responsável por escrever código, fazer diagnósticos, sugerir investimentos, gerar relatórios, a nossa responsabilidade não diminui, aumenta. Precisamos de saber olhar para o que a máquina produz e ser capazes de dizer “não”, “isto está errado”, “isto não faz sentido”, “isto contradiz o que sei do mundo”.
Para isso, é preciso continuar a aprender de verdade. Continuar a passar pelas etapas aborrecidas, pela leitura atenta, pela tentativa falhada, pelo bug que nos rouba horas, mas nos devolve um entendimento novo.
A pergunta que o artigo de Shen e Tamkin deixa a ecoar é esta, mesmo que nunca a formule assim: queremos ser mais inteligentes ou apenas mais assistidos.
Se aceitarmos que a inteligência é também a coragem de pensar sem rede, talvez tenhamos de reaprender a usar a IA não como substituto, mas como espelho, provocação, instrumento que nos devolve perguntas em vez de nos roubar o esforço das respostas.
O artigo: https://arxiv.org/pdf/2601.20245