Quando menos esperamos lá estão as “belas” multas para nos estragarem o dia. De facto, ninguém gosta de passar por esta experiência. No entanto são uma realidade. Mas e se lhe dissermos que existe uma ferramenta que pode ajudar-nos a resolver alguns problemas deste género e inclusivamente a pagarmos menos? A verdade é que o ChatGPT já salva os condutores de multas de estacionamento.
ChatGPT já salva condutores de multas de estacionamento
Um condutor foi multado no aeroporto depois de ter estacionado numa zona de largada de passageiros. É algo que dá multas, no caso da Inglaterra, a rondar os 112 Euros. Isto dependendo claro do tempo que a pessoa está lá estacionada. No entanto em vez de aceitar a multa ele resolveu disputá-la. E tudo isto com a ajuda de uma ferramenta muito popular.
De facto o ChatGTP explodiu em popularidade nos últimos meses. Lembro que é um sistema ao qual podemos fazer questões e conversar como se tratasse de uma pessoa verdadeira do outro lado. Tudo graças ao poder da inteligência artificial.
O condutor que utiliza o ChatGPT no seu trabalho, utilizou a ferramenta para contestar a multa.
Escreveu que pretendia um apelo ao aviso de cobrança de uma multa por estacionar no Aeroporto e imediatamente obteve uma grande resposta.
Ele ficou muito surpreendido. Tudo porque o sistema de inteligência artificial escreveu como um ser humano como refere este utilizador. Aliás ele não teve de mudar sequer uma vírgula.
O chatbot deu-lhe uma resposta em que dizia que percebia a responsabilidade de estar ciente das regras e regulamentos quando conduzia pelo aeroporto.
Contudo, nunca recebeu a primeira notificação da pena e, portanto, não tive a oportunidade de contestar a acusação ou pagar a multa em tempo útil.
O ChatBot continuo e disse “Acredito que o processo de cobrança da dívida foi prematuro, e peço que reconsiderem as penalidades impostas”.
No dia seguinte à contestação feita pelo ChatGPT a multa passou de 112 Euros para 16 Euros. De facto, valeu a pena utilizar este sistema de inteligência artificial. É que graças a isso ficou a pagar quase menos 100 Euros.
Ficou com vontade de experimentar? Faça-o mas tenha cuidado como utiliza
É inegável que o ChatGPT ganhou imensa força desde seu lançamento em novembro de 2022, tornando-se na app com o crescimento mais rápido na história moderna, com mais de 100 milhões de utilizadores até janeiro de 2023. Aliás foi esta popularidade que levou a OpenAI a acelerar o desenvolvimento e até a lançar uma versão paga para quem não quer ter quaisquer restrições de disponibilidade.
Isto criou condições para que os criminosos explorassem a popularidade da ferramenta, prometendo acesso ininterrupto e gratuito ao ChatGPT premium. As ofertas são muitas e o objetivo é atrair os utilizadores para a instalação de malware ou para a recolha de dados pessoais.
O investigador de segurança Dominic Alvieri foi um dos primeiros a notar um desses exemplos. Assim criaram o endereço “chat-gpt-pc.online” para infetar visitantes e roubarem informações. O engodo era o download de um cliente para Windows do ChatGPT sem limitações como refere o site Bleeping Computer.
Esse site foi promovido por uma página do Facebook que até utilizava logotipos oficiais do ChatGPT para enganar os utilizadores que eram redirecionados para o site malicioso.
Entretanto este investigador também viu apps falsas do ChatGPT a serem promovidas na Google Play Store e lojas de aplicações Android de terceiros.
A propósito disto os investigadores da empresa de segurança Cyble publicaram um relatório relevante onde apresentam descobertas adicionais sobre a campanha de distribuição de malware descoberta por Alvieri, bem como outras operações maliciosas que exploram a popularidade do ChatGPT.
Há vários domínios perigosos ativos, páginas para roubar dados de cartões de créditos e mais de 50 apps falsas. Ou seja, um verdadeiro perigo.
Essas ameaças escondem vários perigos. Uns vão nos fazer gastar balúrdios em SMS e outras conseguem roubar o registo de chamadas, listas de contactos, SMS e ficheiros do dispositivo.
Para aceder ao sistema certo tem de utilizar esta ligação.