Niță disse que usa LLMs para pesquisar determinados tópicos ou para produzir cargas úteis que são pagas para forçar brutalmente as pessoas, mas em sua experiência, os modelos não mudaram quando se trata de identificar certos tipos de erros.
“Com o estado atual da IA, às vezes podemos produzir explorações eficazes e úteis ou variações de carga útil para contornar as regras de descoberta”, disse ele. “No entanto, devido às muitas oportunidades para falsidades e imprecisões, não é tão confiável quanto se esperaria. Embora isto possa melhorar com o tempo, por enquanto, a maioria das pessoas ainda considera o trabalho manual confiável e eficaz, especialmente para tarefas complexas onde a precisão é importante.”
Apesar das limitações óbvias, muitos pesquisadores de vulnerabilidades consideram LLMs valiosos, usando suas habilidades para acelerar a detecção de vulnerabilidades, para ajudar a escrever explorações, para recriar cargas maliciosas para evitar a detecção e para propor novos métodos e táticas de ataque com graus variados de sucesso. Eles podem até automatizar a criação de relatórios de divulgação de vulnerabilidades – uma tarefa demorada que os pesquisadores muitas vezes não gostam.
É claro que atores mal-intencionados podem usar essas ferramentas. É difícil determinar se a exploração ou o pagamento foram escritos pelo LLM quando foram encontrados, mas os pesquisadores observaram casos de invasores que claramente colocaram os LLMs para funcionar.
Em fevereiro, a Microsoft e a OpenAI divulgaram um relatório destacando como alguns grupos APT conhecidos estavam usando LLMs. Outros TTPs descobertos incluem recuperação de informações informada por LLM, técnicas de escrita aprimoradas por LLM, prevenção de detecção de anomalias aprimorada por LLM e pesquisa de vulnerabilidade assistida por LLM. É seguro presumir que a adoção de LLMs e de IA produtiva entre os atores de ameaças cresceu desde então, e as organizações e as equipes de segurança devem se esforçar para acompanhá-los usando essas ferramentas.