A OpenAI disse na quarta-feira que interrompeu mais de 20 operações com redes maliciosas em todo o mundo que tentaram usar sua plataforma para fins maliciosos desde o início do ano.
Este trabalho inclui depuração de malware, redação de artigos para sites, geração de biografias para contas de mídia social e criação de imagens de perfil geradas por IA para contas falsas no X.
“Os atores de ameaças continuam a surgir e a testar os nossos modelos, mas ainda não vimos provas de que isso conduza a um sucesso significativo na sua capacidade de criar novo malware ou construir um público infetado”, disse a empresa de Inteligência Artificial (IA).
Afirmou também que interrompeu o trabalho que produzia conteúdos nas redes sociais relacionados com as eleições nos EUA, no Ruanda e, em menor medida, na Índia e na União Europeia, e que nenhuma destas redes atraiu envolvimento viral ou sustentou audiências.
Isso inclui os esforços de uma empresa comercial israelense chamada STOIC (também conhecida como Zero Zeno), que produziu comentários nas redes sociais sobre as eleições indianas, conforme divulgado anteriormente pela Meta e pela OpenAI no início de maio deste ano.
Alguns dos trabalhos cibernéticos destacados pela OpenAI são os seguintes –
- SweetSpecter, um suposto adversário baseado na China que usou recursos OpenAI para inteligência LLM, pesquisa de vulnerabilidades, suporte a scripts, ofuscação e desenvolvimento. Também foi observado que houve tentativas malsucedidas de phishing na equipe da OpenAI para entregar o RAT SugarGh0st.
- Cyber Av3ngers, um grupo afiliado ao Corpo da Guarda Revolucionária Islâmica Iraniana (IRGC) usou seus modelos para conduzir pesquisas sobre controladores lógicos programáveis.
- Storm-0817, um ator de ameaças iraniano, usou seus modelos para preparar malware Android capaz de coletar informações confidenciais, usou-o para copiar perfis do Instagram com Selenium e traduzir perfis do LinkedIn para persa.
Em outros lugares, a empresa disse que tomou medidas para bloquear vários grupos, incluindo as operações influentes chamadas A2Z e Stop News, de contas que produziam conteúdo em inglês e francês para posterior publicação em vários sites e contas de mídia social em várias plataformas.
“[Stop News] é extraordinariamente prolífico no uso de imagens”, disseram os pesquisadores Ben Nimmo e Michael Flossman. “Muitos de seus artigos e tweets na web são acompanhados por imagens criadas usando DALL·E. Essas imagens geralmente eram em estilo cartoon e usavam paletas de cores brilhantes ou tons dramáticos para atrair a atenção.”
Descobriu-se que duas outras redes identificadas pelo OpenAI Bet Bot e Corrupt Comment usavam sua API para conversar com usuários no X e enviar-lhes links para sites de jogos de azar, e para fazer comentários que eram então postados no X, respectivamente.
A divulgação ocorre quase dois meses depois que a OpenAI bloqueou um conjunto de contas vinculadas a uma operação secreta iraniana chamada Storm-2035 que usava o ChatGPT para produzir conteúdo, entre outras coisas, focado nas próximas eleições presidenciais dos EUA.
“Os atores de ameaças muitas vezes usam nossos modelos para realizar operações em um estágio intermediário específico da operação – depois de terem adquirido as ferramentas básicas, como acesso à Internet, endereços de e-mail e contas de mídia social, mas antes de terem lançado produtos 'acabados', como como postagens em mídias sociais ou programas de malware na Internet por meio de uma série de canais de distribuição”, escreveram Nimmo e Flossman.
A empresa de segurança cibernética Sophos, em um relatório publicado na semana passada, disse que a inteligência artificial poderia ser usada para espalhar informações falsas por meio de e-mails direcionados.
Isto inclui o abuso de modelos de IA para agregar websites de campanhas políticas, personas geradas por IA em todo o espectro político e mensagens de correio eletrónico direcionadas com base nas pontuações das campanhas, permitindo assim um novo nível de automatização que torna possível espalhar desinformação em grande escala. .
“Isso significa que um usuário pode gerar qualquer coisa, desde campanhas maliciosas até desinformação deliberada e ameaças maliciosas com pouca reconfiguração”, disseram os pesquisadores Ben Gelman e Adarsh Kyadige.
“É possível associar qualquer partido político ou candidato real ao apoio a qualquer política, mesmo que não concordem com ela. Desinformação não intencional como esta pode fazer com que as pessoas se alinhem com alguém que não apoiam ou se oponham a alguém de quem pensam que gostam.”