Pesquisadores de segurança cibernética descobriram que é possível usar modelos de linguagem em larga escala (LLMs) para gerar novas variantes de código JavaScript malicioso em escala, de uma forma que possa evitar melhor a detecção. “Embora os LLMs se esforcem para criar malware do zero, os criminosos podem facilmente usá-lo para reescrever ou ofuscar malware existente, dificultando sua detecção”, pesquisadores da Unidade 42 da Palo Alto Networks.
Source link