A Wikipédia nunca foi a fonte mais credível de sempre, porque muitas vezes é escrita pelos próprios utilizadores da plataforma, ou seja, sempre foi construída com base na confiança dos utilizadores e na fiabilidade das fontes. Por isso, artigos escritos por IA estão proibidos.
Aliás, os editores já identificaram uma série de sinais subtis que ajudam a perceber quando um texto foi gerado por um chatbot.
Tom exagerado e repetitivo!
Um dos maiores indícios está no tom. Textos de IA tendem a exagerar na importância dos temas, com frases repetitivas sobre o quão “histórico” ou “essencial” algo é. Também tenta resumir demasiadas vezes a mesma ideia, ao dizer que algo é “claro”.
Conclusões estranhas?
Outro traço típico é a mania de fechar secções com conclusões redondinhas ou opiniões finais. Não é uma forma natural de fazer as coisas.
Palavras de estimação e formalidade forçada
Expressões como “além disso”, “por outro lado” ou “furthermore” aparecem em demasia. Resultado? O texto fica rígido, pouco espontâneo e longe da fluidez que um humano costuma dar.
Formatação estranha
As marcas também aparecem na forma como o texto aparece. Estamos a falar de listas mal construídas, uso excessivo de negrito, cabeçalhos em maiúsculas em estilo “título americano” e até travessões ou aspas mal aplicadas.
O travessão é o sinal mais popular até aqui.
Mais previsível, menos humano
No fundo, nenhum destes sinais é uma prova absoluta por si só. Porém, quando aparecem em conjunto, a probabilidade de estarmos perante texto de IA é muito alta. Um humano escreve com mais variação, erros subtis e espontaneidade. A IA tende a soar demasiado arrumadinha.
Precisamos dos nossos leitores. Segue a Leak no Google Notícias e no MSN Portugal. Temos uma nova comunidade no WhatsApp à tua espera. Podes também receber as notícias do teu e-mail. Carrega aqui para te registares É grátis!