Além de muitas outras coisas, a inteligência artificial já consegue diagnosticar doenças com um grau de precisão surpreendente. Aliás, modelos avançados acertam em 94,9% dos casos médicos, segundo um estudo recente da Universidade de Oxford.
Porém, quando somos nós a usar essa mesma IA… a taxa de sucesso cai para 34,5%. Onde está o problema? Não é na máquina.
A IA está preparada. E nós?
A Inteligência Artificial é uma coisa “nova” para a grande maioria das pessoas. Mas, a realidade é que a tecnologia que lhe dá vida não é assim tão novidade. Sendo exatamente por isso que a IA está pronta para voar e fazer sucesso. O mesmo não pode ser dito de nós… Os utilizadores.
Afinal, segundo um estudo de Oxford que reuniu quase 1300 participantes com um desafio simples (agir como pacientes), a coisa está longe de estar perfeita.
Cada pessoa recebia um cenário clínico com sintomas, histórico e contexto pessoal (como ter acabado de fazer exames ou sentir dor ao olhar para baixo). O objetivo era usar modelos de IA como se fossem médicos: fazer perguntas, descrever sintomas, tomar decisões.
Foram usados três modelos diferentes (ChatGPT-4o, Llama 3 e Command R+), e os participantes podiam interagir quantas vezes quisessem. Depois, uma equipa de médicos avaliava se o diagnóstico e o plano de ação estavam corretos.
A máquina acerta? O humano estraga!
Os resultados não deixam margem para dúvidas. Os modelos de IA, sozinhos, acertaram 56,3% das vezes na ação a tomar. Os humanos que não usaram IA acertaram 47%. Mas os que usaram a IA… ficaram pelos 44,2%. Ou seja, meter IA na equação piorou os resultados.
Porquê? Porque as pessoas deram instruções incompletas, esqueceram sintomas importantes, não mencionaram a gravidade ou o tempo de evolução do problema. Curiosamente, quando quando a IA acertava, muitos nem seguiam a recomendação.
Exatamente como fazem com médicos reais.
A culpa é da forma como falamos com a IA!
É como pedir a um assistente para te ir buscar café… sem dizer que queres com leite, frio e com baunilha.
Com IA é igual. Achamos que ela nos “lê” como se fosse um amigo íntimo, mas não é assim. A máquina precisa de informação clara, detalhada e precisa.
Médicos com IA? Sim. Pacientes com IA? Cuidado.
Ferramentas como a OpenEvidence já estão a ser usadas por médicos para validar informação clínica. O que faz sentido, porque os profissionais sabem interpretar resultados e filtrar ruído. O mesmo não acontece com pacientes que não têm formação, mas querem diagnósticos em segundos.
O resultado? Mal-entendidos, decisões erradas e pânico injustificado.
Ainda temos vergonha… até de falar com um robô!
Segundo a especialista Nathalie Volkheimer, muitas pessoas continuam a omitir detalhes importantes por vergonha, mesmo quando estão a falar com uma IA. O que não faz qualquer sentido. Porque a IA não nos julga. Apenas processa informação. O problema não é a tecnologia. É a nossa relação com ela.
Precisamos dos nossos leitores. Segue a Leak no Google Notícias e no MSN Portugal. Temos uma nova comunidade no WhatsApp à tua espera. Podes também receber as notícias do teu e-mail. Carrega aqui para te registares É grátis!