A OpenAI desativou perfis ligados a agências de segurança chinesas, esquemas amorosos fraudulentos e grupos que tentam influenciar a opinião pública global. O relatório sobre ameaças, divulgado recentemente, mostra como o ChatGPT foi usado de forma inadequada em campanhas direcionadas a figuras políticas e representantes governamentais.
Segundo a empresa, indivíduos mal-intencionados combinaram o uso da inteligência artificial com ferramentas convencionais, como redes sociais e sites falsos, para ganhar credibilidade. Suas atividades incluíam desde a criação de serviços de relacionamento fictícios até a falsificação de documentos e a simulação de escritórios de advocacia.
OpenAI interrompe operações globais que usavam IA para espionagem e fraudes
De acordo com a OpenAI, uma dessas campanhas, associada a forças policiais da China, usou o ChatGPT para orquestrar ações de influência contra a primeira-ministra japonesa, Sanae Takaichi. Embora a inteligência artificial tenha se recusado a ajudar no plano inicial de ataque direto, a tecnologia acabou sendo usada para gerenciar centenas de perfis falsos e coordenar seus registros. A intenção era silenciar opositores e intimidar pessoas que discordam do governo chinês, tanto dentro do país quanto no exterior.
No Sudeste Asiático, uma organização com base no Camboja aplicava um golpe amoroso voltado para homens na Indonésia. O grupo usava o ChatGPT para produzir textos e anúncios persuasivos. O objetivo era levar as vítimas a sites fraudulentos que exigiam quantias exorbitantes. Estima-se que essa operação, que misturava esforço humano e automatizado, afetava centenas de pessoas por mês por meio de manipulação emocional.
A OpenAI também identificou contas da rede russa Rybar sendo usadas para gerar e traduzir publicações em plataformas como X/Twitter e Telegram. A investigação revelou que o material produzido por IA nem sempre é o fator decisivo para o alcance de uma publicação; na verdade, a popularidade de quem a compartilha tem mais peso. Além disso, é comum que os usuários alternem entre vários modelos de inteligência artificial na tentativa de burlar restrições e acelerar seu trabalho.
Fora do âmbito político, criminosos se passaram por agentes policiais norte-americanos e profissionais do direito para extorquir dinheiro de pessoas que já haviam sido vítimas de fraudes. Outros grupos tentaram obter dados confidenciais sobre a localização de instalações federais nos Estados Unidos e pediram ajuda para usar softwares de troca de rosto em gravações de vídeo.
A OpenAI argumenta que a divulgação dessas informações é crucial para que a indústria de tecnologia e a sociedade entendam como se proteger dessas novas ameaças digitais.







