AI News
  • Android
  • Apple
  • Burlas
  • Tech
    • Vida digital
    • Computadores
    • Inteligência Artificial
    • Ciência
  • Streaming
  • Jogos
  • Auto
  • Reviews
  • Promoções
Nenhum resultado
Ver todos os resultados
Leak
  • Android
  • Apple
  • Burlas
  • Tech
    • Vida digital
    • Computadores
    • Inteligência Artificial
    • Ciência
  • Streaming
  • Jogos
  • Auto
  • Reviews
  • Promoções
Nenhum resultado
Ver todos os resultados
Logo Leak
Nenhum resultado
Ver todos os resultados
Rosto de mulher sorridente com óculos, usando casaco rosa, em ambiente moderno e iluminado.

IA sem responsabilidade? Houve um aviso no Egito!

Nuno Miguel Oliveira por Nuno Miguel Oliveira
12 de Fevereiro, 2026
em Inteligência Artificial
0
Resumir com o ChatGPTPartilhar no Facebook

A inteligência artificial está a evoluir mais depressa do que aquilo que as leis conseguem acompanhar. Aliás, está a evoluir tão rapidamente, que muito boa gente sente que pode ter o seu emprego preso por fios muito finos e frágeis. (Eu sinto isso, agora que a Google anda a remover importância aos sites de notícia, para entregar resultados gerados apenas e só por IA nos resultados da pesquisa…).

No final dia, é muita coisa que tem de preocupar as pessoas. Aliás, foi exatamente essa a mensagem deixada por Margaret Mitchell, investigadora da Hugging Face, durante o evento AI Everything MEA Egypt 2026, no Cairo.

Foi muito curioso, porque depois de participar num painel sobre IA centrada no ser humano, continuou a conversa com um tom muito mais direto do que simpático ou diplomático.

Além disso, não fugiu às perguntas difíceis. O que faz todo o sentido, não fosse Margaret quem é de facto.

  • Cozinhar com a ajuda da Inteligência Artificial? Já o fizemos!

Quem é Margaret Mitchell? E o que é a Hugging Face

Se nunca ouviste falar destes nomes, primeiramente, estamos a falar de uma das pessoas mais importantes no campo da ética focada na IA. Muito conhecida por liderar o departamento de ética na Google há alguns anos atrás, e, claro, muito notavelmente por ter sido despedida com algum caos à mistura em fevereiro de 2021.

Hoje em dia trabalha na Hugging Face e continua a ser muito vocal no campo da ética. Aliás, até deverá ser mais vocal agora, porque tem mais controlo sobre o que pode dizer, sem grandes medos à mistura.

  • Hugging Face é uma plataforma open-source, que também serve de comunidade, muitas vezes conhecida como o “GitHub da aprendizagem máqina”. Existe acima de tudo para democratizar a IA, ao dar ferramentas a todos para descobrir, partilhar e colaborar no desenvolvimento e treino de modelos de linguagem.

Privacidade: promessa ou marketing?

Dito tudo isto, durante a entrevista, quando questionada sobre se as grandes tecnológicas levam mesmo a privacidade a sério, a resposta foi clara, mas nada generalista.

  • “Depende da empresa.”

É uma resposta muito interessante, numa altura em que muito boa gente, e de facto cada vez mais pessoas, começa a aderir a serviços de IA.

Mais concretamente, Mitchell referiu que, na sua experiência, empresas como Microsoft e Google tratam o tema com seriedade. Mas também deixou um alerta: num futuro próximo, multas e processos podem acabar por ser vistos como simples custos de operação.

Ou seja, pagar para continuar. Para crescer. Para melhorar.

Mas, para a investigadora, a privacidade não pode ser tratada como um detalhe técnico. Tem de ser estrutural. Aliás, se for para proteger realmente os utilizadores, então a encriptação deve ser total. Não parcial.

Segundo Mitchell, se uma empresa consegue aceder aos teus dados, então a proteção não é completa. A encriptação, para ser levada a sério, não pode ter portas traseiras.

A regulação está atrasada?

Existe uma grande distância entre o desenvolvimento tecnológico e a legislação.

A regulação, diz Mitchell, está sempre a correr atrás do prejuízo. É mais reativa do que outra coisa qualquer. Ou seja, quando as regras chegam, o dano muitas vezes já foi feito.

É aqui que entram os especialistas em ética de IA. A função não é apenas reagir a escândalos públicos, mas antecipar riscos, avaliar impactos e tentar evitar que sistemas automatizados causem danos antes de serem massificados.

Porque quando falamos de IA aplicada à saúde, ao crédito ou à justiça, o erro pode ser muito perigoso, com consequências gigantescas.

O viés é um problema!

Mitchell é conhecida pelo trabalho em viés algorítmico e foi direta: os sistemas de IA refletem os dados com que são treinados. E esses dados representam mais uns do que outros.

O que é o “viés”?

Viés é uma tendência, inclinação ou distorção de julgamento que afasta a imparcialidade, gerando avaliações tendenciosas a favor ou contra pessoas, grupos ou ideias. Pode ser um erro sistemático em dados (estatística ou pesquisa) ou um preconceito inconsciente (psicologia), resultando em interpretações parciais, limitações de visão ou decisões desproporcionais.

O resultado? Modelos que falham mais frequentemente para mulheres, comunidades negras e outros grupos sub-representados. Não por acidente, mas porque o desequilíbrio já existe desde a base.

É estrutural. Dito isto, quanto mais estes sistemas são usados em decisões reais, maior o risco de amplificar desigualdades.

Open source é solução ou problema?

A Hugging Face é uma das principais plataformas de modelos open source. Por isso, naturalmente, o tema surgiu.

Dito tudo isto, o dilema entrou na discussão. Ou seja, sistemas abertos promovem transparência e escrutínio, mas também podem ser usados para fins maliciosos.

No final do dia, a realidade é que não existe tecnologia 100% boa.

A diferença, segundo ela, está na capacidade de avaliar impacto a longo prazo e alinhar o desenvolvimento com valores humanos claros. Transparência, diz, ajuda a separar o que é avanço real do que é puro marketing.

O risco que ninguém fala. A dependência das pessoas pela IA.

Talvez o ponto mais inquietante.

Ou seja, houve um alerta para a crescente dependência das pessoas em sistemas automatizados. Hoje em dia já acontece. Quem se habituou a usar ChatGPT, Gemini, etc… No seu dia-a-dia, tem mini ataques de pânico quando o sistema falha. Quase como se já não conseguisse fazer o que sempre fez, só porque uma “ajuda” falhou.

Ou seja, a realidade é simples… Quando começamos a confiar demasiado em chatbots ou assistentes de IA, corremos o risco de perder competências críticas.

Mais concretamente, o pensamento crítico, o julgamento humano e, claro, a capacidade de decisão autónoma.

Poder sem responsabilidade não dura

A mensagem final foi simples, mas pesada!

Poder tecnológico sem responsabilidade não é sustentável. E confiança, uma vez perdida, é muito difícil de recuperar.

A IA está a crescer, mas precisa de amadurecer antes de crescer a sério. Aliás, num momento em que a IA está a entrar em tudo, desde motores de busca a decisões médicas, a pergunta deixa de ser apenas técnica. Em suma, tem de existir responsabilidade.

SummarizePartilhar235
Nuno Miguel Oliveira

Nuno Miguel Oliveira

Desde muito novo que me interessei por computadores e tecnologia no geral, fui sempre aquele membro da família que servia como técnico ou reparador de tudo e alguma coisa (de borla). Agora tenho acesso a tudo o que é novo e incrível neste mundo 'tech'. Valeu a pena!

Artigos relacionados

gpt-4 vs. gpt-4o vs. gpt-4o mini: quais são as diferenças?

Dizer por favor ao ChatGPT gasta mais energia? A ciência responde

por Bruno Fonseca
10 de Fevereiro, 2026

Se tens o hábito de ser educado com o ChatGPT e de lhe agradecer pelas respostas, talvez já tenhas ouvido por aí que estás a prejudicar o planeta....

ler os teus emails

Atenção ao Gmail: a IA já está a ler os teus emails (mas podes desligar)

por Bruno Fonseca
18 de Janeiro, 2026

Se usas Google, há uma coisa quase garantida: tens uma conta Gmail. E há outro detalhe menos óbvio a Inteligência Artificial da Google já pode estar a analisar...

roupa, dobrar

Odeias dobrar a roupa? Já há robô para isso!

por Nuno Miguel Oliveira
15 de Janeiro, 2026

A LG quer acabar com uma das tarefas mais odiadas da casa. Ou seja, ao que tudo indica, dobrar roupa pode mesmo ter os dias contados. Vamos ser...

portátil

Más notícias! O Imposto da IA chega já em Janeiro!

por Nuno Miguel Oliveira
4 de Janeiro, 2026

A ASUS parece estar pronta a fazer uma pausa no mundo dos smartphones, que é um mercado complicado e pouco rentável para quem não tem um grande volume...

Deixar comentário
cropped-logoleak-1.png

A Leak.pt traz-te as últimas notícias de tecnologia, truques e dicas. Lê as noticias sobre tecnologia atual agora mesmo!

Siga-nos

Últimas notícias

chave presa na ignição, desligar o carro

O teu carro vai deixar de ter uma chave e tu vais adorar!

11 de Fevereiro, 2026
Memória cheia? O teu Android está a esconder-te lixo que nem imaginas!

Telemóvel está lento? Atenção à regra dos 10% da Google no Android

11 de Fevereiro, 2026

Registe-se na Newsletter

  • Quem somos
  • Ficha técnica
  • Estatuto editorial
  • Declaração de Privacidade
  • Política de Cookies
  • Termos e Condições
  • Contactos

Leak@2026 - Todos os direitos reservados

Nenhum resultado
Ver todos os resultados
  • Contactos
  • Declaração de privacidade (UE)
  • Estatuto editorial
  • Ficha técnica
  • Imprint
  • Isenção de Responsabilidade
  • Mais recentes
  • Notícias de Tecnologia – Leaks de Tecnologia de Última Hora | Leak.pt
  • Notícias de Tecnologia de Última Hora
  • Política de Cookies (UE)
  • Política de Privacidade
  • Quem somos
  • Termos e Condições

Leak@2026 - Todos os direitos reservados