A culpa é da inteligência artificial? Ou é dos humanos?

Além de muitas outras coisas, a inteligência artificial já consegue diagnosticar doenças com um grau de precisão surpreendente. Aliás, modelos avançados acertam em 94,9% dos casos médicos, segundo um estudo recente da Universidade de Oxford.

Porém, quando somos nós a usar essa mesma IA… a taxa de sucesso cai para 34,5%. Onde está o problema? Não é na máquina.

A IA está preparada. E nós?

inteligência artificial não representa um perigo para os humanos!

A Inteligência Artificial é uma coisa “nova” para a grande maioria das pessoas. Mas, a realidade é que a tecnologia que lhe dá vida não é assim tão novidade. Sendo exatamente por isso que a IA está pronta para voar e fazer sucesso. O mesmo não pode ser dito de nós… Os utilizadores.

Afinal, segundo um estudo de Oxford que reuniu quase 1300 participantes com um desafio simples (agir como pacientes), a coisa está longe de estar perfeita.

Cada pessoa recebia um cenário clínico com sintomas, histórico e contexto pessoal (como ter acabado de fazer exames ou sentir dor ao olhar para baixo). O objetivo era usar modelos de IA como se fossem médicos: fazer perguntas, descrever sintomas, tomar decisões.

Foram usados três modelos diferentes (ChatGPT-4o, Llama 3 e Command R+), e os participantes podiam interagir quantas vezes quisessem. Depois, uma equipa de médicos avaliava se o diagnóstico e o plano de ação estavam corretos.

A máquina acerta? O humano estraga!

Os resultados não deixam margem para dúvidas. Os modelos de IA, sozinhos, acertaram 56,3% das vezes na ação a tomar. Os humanos que não usaram IA acertaram 47%. Mas os que usaram a IA… ficaram pelos 44,2%. Ou seja, meter IA na equação piorou os resultados.

Porquê? Porque as pessoas deram instruções incompletas, esqueceram sintomas importantes, não mencionaram a gravidade ou o tempo de evolução do problema. Curiosamente, quando quando a IA acertava, muitos nem seguiam a recomendação.

Exatamente como fazem com médicos reais.

A culpa é da forma como falamos com a IA!

É como pedir a um assistente para te ir buscar café… sem dizer que queres com leite, frio e com baunilha.

Com IA é igual. Achamos que ela nos “lê” como se fosse um amigo íntimo, mas não é assim. A máquina precisa de informação clara, detalhada e precisa.

Médicos com IA? Sim. Pacientes com IA? Cuidado.

Ferramentas como a OpenEvidence já estão a ser usadas por médicos para validar informação clínica. O que faz sentido, porque os profissionais sabem interpretar resultados e filtrar ruído. O mesmo não acontece com pacientes que não têm formação, mas querem diagnósticos em segundos.

O resultado? Mal-entendidos, decisões erradas e pânico injustificado.

Ainda temos vergonha… até de falar com um robô!

Segundo a especialista Nathalie Volkheimer, muitas pessoas continuam a omitir detalhes importantes por vergonha, mesmo quando estão a falar com uma IA. O que não faz qualquer sentido. Porque a IA não nos julga. Apenas processa informação. O problema não é a tecnologia. É a nossa relação com ela.

Precisamos dos nossos leitores. Segue a Leak no Google Notícias e no MSN Portugal. Temos uma nova comunidade no WhatsApp à tua espera. Podes também receber as notícias do teu e-mail. Carrega aqui para te registares É grátis!

Nuno Miguel Oliveira
Nuno Miguel Oliveirahttps://www.facebook.com/theGeekDomz/
Desde muito novo que me interessei por computadores e tecnologia no geral, fui sempre aquele membro da família que servia como técnico ou reparador de tudo e alguma coisa (de borla). Agora tenho acesso a tudo o que é novo e incrível neste mundo 'tech'. Valeu a pena!

TRENDING