Quer saber como os bandidos atacam os sistemas de IA? O ATLAS DE MITRE pode te mostrar
Cibersegurança

Quer saber como os bandidos atacam os sistemas de IA? O ATLAS DE MITRE pode te mostrar

  • Coleção de artefatos de ML
  • Dados de bancos de dados
  • Dados de sistemas locais

Ataque de estágio de ML

Agora que as informações foram coletadas, os malfeitores começam a planejar ataques com conhecimento dos sistemas alvo. Pode ser o treinamento de modelos proxy, o envenenamento do modelo alvo ou a criação de dados adversários para caber no modelo alvo.

As quatro estratégias identificadas incluem:

  • Crie um modelo de ML representativo
  • Modelo de backdoor de ML
  • Confirme o ataque
  • Crie dados conflitantes

Os modelos proxy ML podem ser usados ​​para simular ataques e colocá-los off-line enquanto os invasores aprimoram suas habilidades e os resultados desejados. Eles também podem usar cópias offline de modelos alvo para garantir o sucesso do ataque sem levantar suspeitas da organização vítima.

Exfiltração

Depois de todas as etapas discutidas, os invasores chegam ao que realmente lhes interessa: a imersão. Isso inclui o roubo de artefatos de ML ou outras informações sobre o sistema de ML. Podem ser propriedade intelectual, informações financeiras, PHI ou outros dados sensíveis, dependendo da implementação do modelo e dos sistemas de BC envolvidos.

As técnicas associadas à imersão incluem:

  • Exfiltração com API de inferência de ML
  • Liberação por meios cibernéticos
  • Metalançamento do LLM
  • Vazamento de dados LLM

Tudo isso inclui a exfiltração de dados, seja por meio de uma API, métodos on-line comuns (por exemplo, exfiltração ATT&CK) ou o uso de informações para permitir que o LLM vaze dados confidenciais, como dados privados de usuários, dados organizacionais proprietários e dados de treinamento, que podem incluir entre Informação. Esta tem sido uma das principais questões relacionadas ao uso do LLM por profissionais de segurança, à medida que as organizações o adotam rapidamente.

Impacto

Ao contrário da imersão, a fase de impacto é onde os invasores causam danos ou prejuízos, o que pode causar interrupções, destruir a confiança ou destruir sistemas e dados de ML. Nesta fase, isso pode incluir adquirir um alvo (para resgate, por exemplo) ou prejudicar a integridade de forma injusta.

Esta estratégia tem seis estratégias, incluindo:

  • Evitando modelos de ML
  • Negação de serviço de ML
  • Programas de ML de spam com dados de casca
  • Remove a integridade do modelo de ML
  • Economia de custos
  • Lesões externas

Embora tenhamos discutido algumas estratégias como parte de outras estratégias, há exceções aqui relacionadas à influência. Por exemplo, a negação de serviço de ML refere-se ao uso de recursos ou à inundação de sistemas com solicitações para degradar ou desabilitar serviços.

Embora a maioria das ofertas modernas de IA empresarial sejam hospedadas na nuvem com computação elástica, elas ainda podem ocorrer DDoS e endpoints de recursos, bem como implicações de custo se não forem adequadamente mitigadas, impactando tanto o fornecedor quanto o consumidor.

Além disso, os invasores podem tentar destruir a integridade do modelo de ML em vez de inserir dados conflitantes que afetam a confiabilidade do modelo de ML e fazem com que o provedor ou organização do modelo corrija problemas operacionais e de sistema para resolver a integridade.

Finalmente, os atacantes podem procurar criar danos externos, tais como abusar do acesso que obtêm para afectar o sistema, os recursos e a organização da vítima de formas que envolvem danos financeiros e de reputação, impactam os utilizadores ou danos sociais mais amplos, dependendo da utilização e dos impactos. do sistema ML.



Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *