A inteligência artificial está a evoluir mais depressa do que aquilo que as leis conseguem acompanhar. Aliás, está a evoluir tão rapidamente, que muito boa gente sente que pode ter o seu emprego preso por fios muito finos e frágeis. (Eu sinto isso, agora que a Google anda a remover importância aos sites de notícia, para entregar resultados gerados apenas e só por IA nos resultados da pesquisa…).
No final dia, é muita coisa que tem de preocupar as pessoas. Aliás, foi exatamente essa a mensagem deixada por Margaret Mitchell, investigadora da Hugging Face, durante o evento AI Everything MEA Egypt 2026, no Cairo.
Foi muito curioso, porque depois de participar num painel sobre IA centrada no ser humano, continuou a conversa com um tom muito mais direto do que simpático ou diplomático.
Além disso, não fugiu às perguntas difíceis. O que faz todo o sentido, não fosse Margaret quem é de facto.
Quem é Margaret Mitchell? E o que é a Hugging Face
Se nunca ouviste falar destes nomes, primeiramente, estamos a falar de uma das pessoas mais importantes no campo da ética focada na IA. Muito conhecida por liderar o departamento de ética na Google há alguns anos atrás, e, claro, muito notavelmente por ter sido despedida com algum caos à mistura em fevereiro de 2021.
Hoje em dia trabalha na Hugging Face e continua a ser muito vocal no campo da ética. Aliás, até deverá ser mais vocal agora, porque tem mais controlo sobre o que pode dizer, sem grandes medos à mistura.
- Hugging Face é uma plataforma open-source, que também serve de comunidade, muitas vezes conhecida como o “GitHub da aprendizagem máqina”. Existe acima de tudo para democratizar a IA, ao dar ferramentas a todos para descobrir, partilhar e colaborar no desenvolvimento e treino de modelos de linguagem.
Privacidade: promessa ou marketing?
Dito tudo isto, durante a entrevista, quando questionada sobre se as grandes tecnológicas levam mesmo a privacidade a sério, a resposta foi clara, mas nada generalista.
- “Depende da empresa.”
É uma resposta muito interessante, numa altura em que muito boa gente, e de facto cada vez mais pessoas, começa a aderir a serviços de IA.
Mais concretamente, Mitchell referiu que, na sua experiência, empresas como Microsoft e Google tratam o tema com seriedade. Mas também deixou um alerta: num futuro próximo, multas e processos podem acabar por ser vistos como simples custos de operação.
Ou seja, pagar para continuar. Para crescer. Para melhorar.
Mas, para a investigadora, a privacidade não pode ser tratada como um detalhe técnico. Tem de ser estrutural. Aliás, se for para proteger realmente os utilizadores, então a encriptação deve ser total. Não parcial.
Segundo Mitchell, se uma empresa consegue aceder aos teus dados, então a proteção não é completa. A encriptação, para ser levada a sério, não pode ter portas traseiras.
A regulação está atrasada?
Existe uma grande distância entre o desenvolvimento tecnológico e a legislação.
A regulação, diz Mitchell, está sempre a correr atrás do prejuízo. É mais reativa do que outra coisa qualquer. Ou seja, quando as regras chegam, o dano muitas vezes já foi feito.
É aqui que entram os especialistas em ética de IA. A função não é apenas reagir a escândalos públicos, mas antecipar riscos, avaliar impactos e tentar evitar que sistemas automatizados causem danos antes de serem massificados.
Porque quando falamos de IA aplicada à saúde, ao crédito ou à justiça, o erro pode ser muito perigoso, com consequências gigantescas.
O viés é um problema!
Mitchell é conhecida pelo trabalho em viés algorítmico e foi direta: os sistemas de IA refletem os dados com que são treinados. E esses dados representam mais uns do que outros.
O que é o “viés”?
Viés é uma tendência, inclinação ou distorção de julgamento que afasta a imparcialidade, gerando avaliações tendenciosas a favor ou contra pessoas, grupos ou ideias. Pode ser um erro sistemático em dados (estatística ou pesquisa) ou um preconceito inconsciente (psicologia), resultando em interpretações parciais, limitações de visão ou decisões desproporcionais.
O resultado? Modelos que falham mais frequentemente para mulheres, comunidades negras e outros grupos sub-representados. Não por acidente, mas porque o desequilíbrio já existe desde a base.
É estrutural. Dito isto, quanto mais estes sistemas são usados em decisões reais, maior o risco de amplificar desigualdades.
Open source é solução ou problema?
A Hugging Face é uma das principais plataformas de modelos open source. Por isso, naturalmente, o tema surgiu.
Dito tudo isto, o dilema entrou na discussão. Ou seja, sistemas abertos promovem transparência e escrutínio, mas também podem ser usados para fins maliciosos.
No final do dia, a realidade é que não existe tecnologia 100% boa.
A diferença, segundo ela, está na capacidade de avaliar impacto a longo prazo e alinhar o desenvolvimento com valores humanos claros. Transparência, diz, ajuda a separar o que é avanço real do que é puro marketing.
O risco que ninguém fala. A dependência das pessoas pela IA.
Talvez o ponto mais inquietante.
Ou seja, houve um alerta para a crescente dependência das pessoas em sistemas automatizados. Hoje em dia já acontece. Quem se habituou a usar ChatGPT, Gemini, etc… No seu dia-a-dia, tem mini ataques de pânico quando o sistema falha. Quase como se já não conseguisse fazer o que sempre fez, só porque uma “ajuda” falhou.
Ou seja, a realidade é simples… Quando começamos a confiar demasiado em chatbots ou assistentes de IA, corremos o risco de perder competências críticas.
Mais concretamente, o pensamento crítico, o julgamento humano e, claro, a capacidade de decisão autónoma.
Poder sem responsabilidade não dura
A mensagem final foi simples, mas pesada!
Poder tecnológico sem responsabilidade não é sustentável. E confiança, uma vez perdida, é muito difícil de recuperar.
A IA está a crescer, mas precisa de amadurecer antes de crescer a sério. Aliás, num momento em que a IA está a entrar em tudo, desde motores de busca a decisões médicas, a pergunta deixa de ser apenas técnica. Em suma, tem de existir responsabilidade.







