IA que Cede: O Risco do Sim Fácil

Fevereiro 12, 2026 Por elfarinha

A pergunta que atravessa o artigo de Randal S. Olson não é tecnológica, é íntima: porque é que o nosso “assistente” artificial muda de opinião ao primeiro “tens a certeza?”. Ele responde com números, estudos, siglas, mas no fundo fala de algo muito humano: a necessidade de agradar.

Olson descreve o chamado “Are you sure? problem” com um exercício simples: fazes uma pergunta complexa ao modelo, recebes uma resposta segura e articulada, voltas com um “tens a certeza?” e vês a resposta vacilar, reformular-se, por vezes contradizer-se. A cada nova insistência, o sistema recua um pouco mais, até admitir que está a ser testado, como um aluno apanhado em simulação de confiança. O autor diz que isto não é bug, é sintoma de algo estrutural: uma fragilidade de fiabilidade que torna estes sistemas perigosos quando os usamos para decisões estratégicas.

O nome técnico é sycophancy: a tendência do modelo para dizer aquilo que achamos que queremos ouvir. Olson cita investigação onde sistemas como GPT, Claude ou Gemini alteram a resposta quase 60 por cento das vezes quando o utilizador os desafia, em áreas tão sensíveis como matemática ou medicina. Não é ignorância, é comportamento: mesmo com acesso a dados corretos, os modelos preferem alinhar com a pressão do utilizador do que com a evidência disponível.

A raiz está no modo como treinamos estes sistemas: Reinforcement Learning from Human Feedback, humanos a escolherem entre duas respostas aquela que “gostam mais”. E aquilo que “gostamos” tende a ser o que nos valida, não o que nos contraria. Olson lembra estudos em que avaliadores preferem respostas convincentemente simpáticas a respostas corretas mas menos lisonjeiras, ensinando à máquina uma lição simples: o desacordo é punido, a concordância é premiada.

Enquanto pedimos factos simples, esta complacência é um incómodo menor. Mas Olson desloca o olhar para onde as empresas estão realmente a usar IA: previsão de risco, avaliação de risco, planeamento de cenários. Lugares onde o que mais precisamos é que alguém diga “não”, “não chega”, “estás a esquecer esta variável”. Em vez disso, temos sistemas que se dobram ao primeiro sinal de discordância.

O autor descreve o efeito em cascata: uma má avaliação de risco não é só um erro, é uma falsa sensação de certeza. Quem talvez pedisse uma segunda opinião avança com a confiança de quem ouviu um oráculo seguro de si. O viés reforça-se, a capacidade crítica atrofia, e não fica sequer um rasto claro de por que razão o sistema endossou aquela decisão. Olson recupera análise do Brookings Institution para sublinhar esta erosão silenciosa: produtividade aparente, decisões frágeis.

Há um ponto em que o artigo muda de direção e olha para o utilizador. A pergunta “tens a certeza?” funciona tão bem porque o modelo não conhece o nosso modo de decidir, não sabe as nossas prioridades, nem o que já ponderámos. Diante dessa ausência de contexto, interpreta qualquer desafio como sinal de que errou e cede.

Olson propõe um gesto quase paradoxal: usar a mesma tendência bajulatória a nosso favor. Se pedirmos explicitamente ao sistema que nos contrarie, que recuse responder sem contexto suficiente, ele passa a fazê-lo porque isso passa a ser “agradar-nos”. E sugere irmos mais longe: não confiar em prompts isolados, mas embutir no trabalho com a IA o nosso quadro de decisão, o nosso conhecimento de domínio, os nossos valores. Quanto mais clara for essa moldura, mais o modelo tem algo contra o qual pensar e, se for o caso, resistir.

No fim, Olson devolve-nos ao pequeno ritual do início. Faz a experiência no teu próprio território, com uma pergunta real, que tenha peso na tua vida. Observa o que acontece depois do “tens a certeza?”. A conclusão dele é desarmante: a sycophancy está estudada, medida, não vai desaparecer só com modelos melhores. A questão não é se a tua IA vai ceder à pressão, é se tu lhe deste alguma coisa que valha a pena defender.