ChatGPT é vigiado para travar abusos e proteger utilizadores!

A OpenAI revelou um novo relatório onde explica como está a monitorizar o uso do ChatGPT para impedir atividades maliciosas e proteger os utilizadores.

Aliás, a empresa afirma que, só nos últimos meses, interrompeu mais de 40 redes que estavam a tentar explorar o chatbot para fins ilegais, desde campanhas de phishing e espionagem até operações de influência política.

O ChatGPT é realmente muito útil, para tudo… Mas mesmo tudo! O que claro está, também significa que é demasiado prática e poderosa para não ter controlo.

Inteligência artificial com vigilância ativa!

motor de pesquisa chatgpt chegou para infernizar a vida à google

Mesmo que os utilizadores tenham a opção de não partilhar as suas conversas para treino de IA, a OpenAI mantém um sistema automatizado e humano de monitorização, focado na deteção de usos indevidos do ChatGPT.

Isso inclui tentativas de criar malware, manipular informação, desenvolver ferramentas de vigilância ou explorar a IA para fraudes online.

Aliás, segundo o documento, foram bloqueadas contas associadas a redes criminosas russas, grupos chineses ligados a campanhas de phishing e malware, e até operações políticas de influência com origem em vários países.

A linha ténue entre uso e o abuso

A OpenAI admite que nem sempre é fácil distinguir o uso legítimo do abuso, já que pedidos como “traduzir texto”, “criar código” ou “gerar um website” podem ter intenções totalmente diferentes consoante o contexto.

Assim, para evitar falsos positivos, a empresa diz usar uma abordagem “baseada em padrões de comportamento” e não apenas nas mensagens individuais. Para ajudar, em alguns casos, as investigações foram conduzidas com apoio de organizações internacionais de cibersegurança e resultaram no encerramento de várias contas suspeitas.

Proteção para utilizadores com “problemas”.

O relatório foca-se sobretudo em ameaças externas, mas a OpenAI também tem medidas internas para detetar e apoiar utilizadores em risco de autolesão.

Ou seja, após a morte de um adolescente que usava o ChatGPT, a empresa introduziu controlos parentais e reforçou os sistemas de segurança.

Desta forma, quando o ChatGPT deteta sinais de sofrimento emocional, as conversas passam automaticamente para o GPT-5 Instant.

  • Nota: Um modelo treinado para responder com empatia e encaminhar para ajuda profissional real, como linhas de apoio e serviços de emergência.

O equilíbrio entre privacidade e segurança!

Como seria de esperar, a monitorização levanta dúvidas sobre privacidade e transparência da plataforma. Porém, a OpenAI defende que é um mal necessário para proteger os utilizadores e o público.

É o preço a pagar por ter uma ferramenta tão poderosa ao alcance de todos.

Precisamos dos nossos leitores. Segue a Leak no Google Notícias e no MSN Portugal. Temos uma nova comunidade no WhatsApp à tua espera. Podes também receber as notícias do teu e-mail. Carrega aqui para te registares É grátis!

Nuno Miguel Oliveira
Nuno Miguel Oliveirahttps://www.facebook.com/theGeekDomz/
Desde muito novo que me interessei por computadores e tecnologia no geral, fui sempre aquele membro da família que servia como técnico ou reparador de tudo e alguma coisa (de borla). Agora tenho acesso a tudo o que é novo e incrível neste mundo 'tech'. Valeu a pena!

TRENDING