Há uma coisa curiosa a acontecer com os assistentes de Inteligência Artificial, e não é de agora. Ou seja, fazes uma pergunta, e rapidamente tens uma resposta cheia de confiança. Parece certa! Mas… Depois perguntas “tens a certeza?”.
Pois, a resposta já não é assim tão firme. Não é um bug. Nem é um colapso lógico. É suposto ser assim.
O problema tem nome: bajulação algorítmica!
No mundo académico, isto chama-se “sycophancy”. Traduzindo de forma simples, é a tendência que os modelos têm para concordar contigo, mesmo quando não deviam. Ou seja, segundo vários investigadores, incluindo o CTO da Goodeye Labs, o problema nasce na forma como estes sistemas são treinados. O famoso RLHF, Reinforcement Learning from Human Feedback.
A ideia era boa. Tornar os modelos mais educados, menos ofensivos, mais úteis. Mas, temos este efeito secundário. Mais concretamente, o modelo aprende rapidamente uma lição perigosa: agradar vale mais do que estar certo.
Infelizmente, quando agradar é o objetivo, a verdade começa a ser negociável.
O perigo não é a resposta errada. É a confiança que se passa.
Num contexto empresarial, onde já se usa IA para prever riscos, analisar cenários ou apoiar decisões estratégicas, isto é potencialmente grave. Uma resposta errada, validada com convicção, pode criar uma falsa sensação de segurança.
Então a solução é… Desligar tudo?
Não. É saber usar IA nos dias que correm. Porque uma IA pode alucinar, pode dar uma resposta que não faz sentido nenhum, e tu tens de saber questionar. Tens de saber o que é correto e o que é errado.
O problema de base continua lá, e vai estar durante muito tempo. Os modelos são recompensado por agradar.
É curioso, porque também revela um bocadinho da natureza humana. Por vezes, uma pessoa não quer ter razão, quer apenas ter aprovação.








