Converte códigos LLM
Pesquisa realmente interessante: “Ataques de backdoor fáceis de acionar assistidos por LLM em modelos de conclusão de código: injeção de vulnerabilidade oculta vs.“:
Resumo: Large Language Models (LLMs) transformam o código
atividades de conclusão, que fornecem sugestões baseadas no contexto para aumentar a produtividade do desenvolvedor em engenharia de software. Como os usuários costumam ajustar esses modelos para aplicações específicas, ataques de envenenamento e backdoor podem alterar furtivamente a saída do modelo. Para enfrentar esse desafio crítico de segurança, apresentamos o CODEBREAKER, uma estrutura de ataque de back-end assistida por LLM para modelos de conclusão de código. Ao contrário dos ataques recentes que incorporam cargas maliciosas em seções de código acessíveis ou não essenciais (por exemplo, comentários), o CODEBREAKER suporta LLMs (por exemplo, GPT-4) na modificação de cargas complexas (sem afetar o desempenho), garantindo que ambos os dados tóxicos sejam multados – o ajuste e o código gerado podem evitar a detecção robusta de vulnerabilidades. CODEBREAKER se destaca por sua cobertura abrangente de vulnerabilidades, tornando-o o primeiro a oferecer um conjunto tão abrangente para testes. Nossos extensos testes e estudos de usuários confirmam o desempenho robusto de ataques do CODEBREAKER em uma variedade de configurações, confirmando sua superioridade sobre os métodos existentes. Ao integrar cargas maliciosas diretamente no código-fonte com alterações mínimas, o CODEBREAKER desafia as medidas de segurança atuais, ressaltando a necessidade crítica de defesas fortes para quebrar o código.
Um ataque inteligente e outra ilustração de por que a IA confiável é importante.
Publicado em 7 de novembro de 2024 às 7h07 • 0 comentários
Foto da barra lateral de Bruce Schneier por Joe MacInnis.