Domingo, Julho 13, 2025

InteligĂȘncia Artificial pode morrer de um dia para o outro.

A InteligĂȘncia Artificial nĂŁo tem resposta para tudo porque “nasceu” assim. Foi treinada com todo o tipo de dados que pode encontrar na Internet. Ou seja, se porventura for perguntar qual Ă© a capacidade de bateria de um qualquer smartphone, Ă© provĂĄvel que o motor de pesquisa do sistema IA que estĂĄ a utilizar aproveite um artigo escrito por mim para lhe dar a resposta.

PorĂ©m, eu nunca dei autorização para que as minhas respostas fossem utilizadas em pesquisas IA. Uma coisa Ă© publicar artigos, e os motores de buscar indexarem esses mesmos artigos nos seus resultados de pesquisa, que depois tĂȘm ranking consoante a sua qualidade. Se alguĂ©m clicar no meu artigo, vem ter Ă  Leak, e Ă© bom para todos. Outra completamente diferente Ă© ter os meus dados utilizados sem qualquer autorização, e sem qualquer pessoa entrar no meu site.

Ou seja, publicar artigos para serem lidos por humanos, atravĂ©s de motores de busca, Ă© uma coisa. Esses motores mostram o meu link, hĂĄ trĂĄfego, hĂĄ retorno. Mas usar esse conteĂșdo para treinar IA, sem qualquer visita, sem trĂĄfego, sem permissĂŁo? Isso jĂĄ Ă© outra histĂłria, e Ă© algo que eu (e muitos outros) sinto na pele.

Ou seja, vivemos num mundo onde roubar um carro ainda Ă© crime, mas roubar cultura para treinar inteligĂȘncia artificial parece ser sĂł mais uma terça-feira normal. NĂŁo pode ser.

InteligĂȘncia Artificial pode morrer de um dia para o outro. Sabe porquĂȘ?

inteligĂȘncia artificial nĂŁo representa um perigo para os humanos!

Portanto, se as empresas focadas em IA tiverem de pedir autorização, de forma a usar conteĂșdos protegidos por direitos de autor. Algo que devia ser a norma. Tudo isto pode morrer “de um dia para o outro”.

Quem o diz Ă© Nick Clegg, antigo vice-primeiro-ministro britĂąnico e ex-executivo da Meta.

Esta afirmação feita durante a promoção do livro How to Save the Internet. Precisamente num momento em que o Parlamento britùnico estå a debater o novo Data (Use and Access) Bill.

Uma lei que pretende regular o acesso aos dados de utilizadores e empresas. Incluindo aquilo que pode (ou nĂŁo) fazer parte de treinos para modelos de IA.

inteligĂȘncia artificial nĂŁo representa um perigo para os humanos!

Mas, Ă© preciso ter a noção de que… Exigir que as empresas notifiquem ou obtenham autorização para cada obra usada nos seus modelos Ă© completamente impossĂ­vel. Isto tanto do ponto de vista tecnolĂłgico como prĂĄtico.

O ponto Ă© simples: a IA precisa de quantidades gigantescas de dados. Esses dados jĂĄ estĂŁo disponĂ­veis publicamente. EntĂŁo, para quĂȘ complicar?

Ora, do outro lado da barricada, artistas, escritores e criadores nĂŁo concordam. E a verdade Ă© que tĂȘm razĂŁo.

É um roubo culturar em massa, sem qualquer tipo de controlo.

Especialmente porque não se pode optar por sair do sistema. (Isto porque ninguém sabe que dados fazem parte das bases de dados. De quem são? Para onde vão?)

AtĂ© lĂĄ, a questĂŁo mantĂ©m-se! O futuro da IA justifica o desaparecimento silencioso de toda uma indĂșstria criativa? E serĂĄ que a desculpa da “fĂ­sica da tecnologia” serve para atropelar os direitos de quem cria?

Antes de mais nada, o que pensas sobre tudo isto? Partilha connosco a tua opiniĂŁo na caixa de comentĂĄrios em baixo.

Siga a Leak no Google NotĂ­cias e no MSN Portugal.

Receba as notícias Leak no seu e-mail. Carregue aqui para se registar É grátis!
Nuno Miguel Oliveira
Nuno Miguel Oliveirahttps://www.facebook.com/theGeekDomz/
Desde muito novo que me interessei por computadores e tecnologia no geral, fui sempre aquele membro da família que servia como técnico ou reparador de tudo e alguma coisa (de borla). Agora tenho acesso a tudo o que é novo e incrível neste mundo 'tech'. Valeu a pena!

Últimas

Leia também