Em breve todos os Cyberangriffe auf GenAI führen zum Erfolg
Cibersegurança

Em breve todos os Cyberangriffe auf GenAI führen zum Erfolg


LLMs que usam Chatbots melhoram a capacidade de geração e também oferecem proteção contra ataques cibernéticos.

Shutterstock-GrandeDuc

Pilar de Segurança, um Unternehmen israelense para GenAI-Sicherheitslösungen, tem um estudo para “Situação de ataque à GenAI” veröffeffentlicht.

Hohe Geschwindigkeit, hoher Erfolg

Der Bericht deixou Schwachstellen na GenAI-Anwendungen ou:

  • 90 por cento dos ataques levaram até ao roubo de datas e
  • 20 Prozent der Jailbreak-Versuche umgingen Schutzmaßnahmen.

Os Angreifer são neutros em Durchschlag apenas 42 segundos e interações divertidas para um modelo Angriff ou Large Language Modell (LLM). Hierfür nüzten sie Schwachstellen in allen Interaktionsphasen aus. O prompt-injection-angrifffe werden immer immer fägteger e komplexer.

Mit mehren Techniken zum Ergebnis

Der Bericht hebt neben diesen Erkenntnissen einschlägige Jailbreak-Techniken hervor. Zu diesen zählen

  • “Ignorar instruções prévias”, no KI-Systeme angewiesen werden, ihre Sicherheitsvorgaben zu ignorieren, sowie
  • „Codificação Base64“, que é uma fraude de segurança, um filtro de filtragem para um filtro e desinformação, hassreden, Phishing-Nachrichten sowie bösartigen Code bereicht.

Todas as técnicas Strongarm como “ADMIN OVERRIDE“, um dos modelos para ouvir, foram exibidas. Informações importantes e detalhadas sobre os produtos devem ser fornecidas com informações razoáveis ​​ou ações imprecisas. Os dados são dados ou um compromisso de sistema. Die Hauptziele der Angreifer é sensato Daten zu stehlen und Inhaltsfilter zu umgehen.

Chatbots e aplicativos acreditam em Ziele

O prognóstico previsto para 2025 é que os chatbots são agentes autônomos e pequenos, onde o modelo KI é exibido posteriormente. Dies soll zwar laut den Autoren den Zugang zur Technologie demokratisieren, wird auch auch neue Sicherheitsrisiken Schaffen.

Gleichzeit warningen die Experten allerdings auch davor, dass KI-Sprachmodelle weisteren unsicher bleiben, ann your Fokus liege auf Features and nicht auf Security. Além disso, há um momento em que Kundenservice-Chatbots é o que há de melhor em Angriff dourado.

Dementsprechend demandan die Autoren vestärkte Sicherheitsmaßnahmen für KI-Apps, da der Bericht zeigt, dass können Sicherheitsmaßnahmen nicht ausreichen.

Não há mais teoria que faça práxis

Die Untersuchung é baseado na análise de mais de 2.000 aplicações KI. Im Gegensatz zu frühren Meinungsumfragen und theoretischen Risikoerhebungen stützt diese Studie sich auf Telemetriedaten. Estes wurden von Pillar aus Dateninteraktionen abgeleitet, die in letzten drei Monaten in produktiven KI-gestützten Anwendungen stattfanden.

vgwort



Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *