A OpenAI revelou um novo relatório onde explica como está a monitorizar o uso do ChatGPT para impedir atividades maliciosas e proteger os utilizadores.
Aliás, a empresa afirma que, só nos últimos meses, interrompeu mais de 40 redes que estavam a tentar explorar o chatbot para fins ilegais, desde campanhas de phishing e espionagem até operações de influência política.
O ChatGPT é realmente muito útil, para tudo… Mas mesmo tudo! O que claro está, também significa que é demasiado prática e poderosa para não ter controlo.
Inteligência artificial com vigilância ativa!
Mesmo que os utilizadores tenham a opção de não partilhar as suas conversas para treino de IA, a OpenAI mantém um sistema automatizado e humano de monitorização, focado na deteção de usos indevidos do ChatGPT.
Isso inclui tentativas de criar malware, manipular informação, desenvolver ferramentas de vigilância ou explorar a IA para fraudes online.
Aliás, segundo o documento, foram bloqueadas contas associadas a redes criminosas russas, grupos chineses ligados a campanhas de phishing e malware, e até operações políticas de influência com origem em vários países.
A linha ténue entre uso e o abuso
A OpenAI admite que nem sempre é fácil distinguir o uso legítimo do abuso, já que pedidos como “traduzir texto”, “criar código” ou “gerar um website” podem ter intenções totalmente diferentes consoante o contexto.
Assim, para evitar falsos positivos, a empresa diz usar uma abordagem “baseada em padrões de comportamento” e não apenas nas mensagens individuais. Para ajudar, em alguns casos, as investigações foram conduzidas com apoio de organizações internacionais de cibersegurança e resultaram no encerramento de várias contas suspeitas.
Proteção para utilizadores com “problemas”.
O relatório foca-se sobretudo em ameaças externas, mas a OpenAI também tem medidas internas para detetar e apoiar utilizadores em risco de autolesão.
Ou seja, após a morte de um adolescente que usava o ChatGPT, a empresa introduziu controlos parentais e reforçou os sistemas de segurança.
Desta forma, quando o ChatGPT deteta sinais de sofrimento emocional, as conversas passam automaticamente para o GPT-5 Instant.
- Nota: Um modelo treinado para responder com empatia e encaminhar para ajuda profissional real, como linhas de apoio e serviços de emergência.
O equilíbrio entre privacidade e segurança!
Como seria de esperar, a monitorização levanta dúvidas sobre privacidade e transparência da plataforma. Porém, a OpenAI defende que é um mal necessário para proteger os utilizadores e o público.
É o preço a pagar por ter uma ferramenta tão poderosa ao alcance de todos.
Precisamos dos nossos leitores. Segue a Leak no Google Notícias e no MSN Portugal. Temos uma nova comunidade no WhatsApp à tua espera. Podes também receber as notícias do teu e-mail. Carrega aqui para te registares É grátis!