Hacker está disponível em LLM-Zugänge
Cibersegurança

Hacker está disponível em LLM-Zugänge


LLM-Jacking: Angreifer nutzen gestohlene AWS-Anmeldeinformationen, um LLMs zu activieren und die Kosten für die Opfer zu einchen.

Imagens Tada – shutterstock.com

O Schwarzmarkt für den Zugang zu großen Sprachmodellen (Grandes Modelos de Linguagem – LLMs) é o mais importante. Angreifer missbrauchen dazu zumpecht gestohlene Cloud-Zugangsdaten, um KI-Dienste como Amazon Bedrock abzufragen – um método, o LLM-Jacking bezeichnet wird.

Untersuchungen des Security-Anbieter Sysdig deuten darauf hin, dass Threatungsakteure nicht nur LLMs abfragen, die Kontoinhaber bereits auf solchen Plattformen gerätte haben, sondern auch versuchen, neuenzu. Dies könnte die Kosten für die Opfer schnell in the Höhe treiben.

“LLM-Jacking ist auf dem Vormmarsch”, avisa o Sicherheitsforscher em ihrem Bericht. Em julho de 2024, foram confirmados um zehnfache Zunahme der LLM-Anfragen e um Verdoppelung der Anzahl der einweitigen IP-Adressen, dien an diesen Angriffen beleicht sind. “Mit der fortschreitenden Entwicklung von großen Sprachmodellen steigen die Kosten für die Opfer bei Verwendung von Spitzenmodellen wie Claude 3 Opus fast kum das Dreifache ou uf more als 100,000 Dollar per Day.”

Sysdig hat Beweise dafür gefunden, dass die Angreifer, die sich an LLM-Jacking beteiligen, in einigen Fällen in Russland ansässig sind, wo der Zugang zu LLM-Chatbots und -Diensten westlicher Unternehmen durch Sankttenen star.

“Die Hauptsprache, die in den Eingabeaufforderungen verwendet wird, ist Englisch (80 Prozent), die zweithäufigste Sprache ist Koreanisch (10 Prozent), der Rest sind Russisch, Rumänisch, Deutsch, Spanisch und Japaneseisch”, esberich im Forschung.

Angreifer missbrauchen Bedrock-APIs

Amazon Bedrock é um AWS-Dienst, der es Organisationen ermöglicht, LLMs von mehreren KI-Unternehmen einfach bereitzustellen und zu nutzen, um sie mit eigenen Datensätzen zu ässälten und Agenten und Anwendungen foi oficialmente estabelecido. O Dienst contém uma longa lista de ações API, através do modelo utilizado e programado com sua interação, que pode ser realizada.

Para obter mais informações sobre ações da API, insira Angreifern em Jahr über kompromittierte Anmeldeinformationen aufgerufen wurden, gehörten InvokeModel, InvokeModelStream, Converse e ConverseStream. Kürzlich wurden Angreifer jedoch auch bei derwendung von PutFoundationModelEntitlement e PutUseCaseForModelAccess bebechert. Estes foram usados ​​​​com ListFoundationModels e GetFoundationModel Availability of dazu, Modelle im Voraus zu aktivieren. Por meio disso, Angreifer erkennen, auf welche Modelle ein Konto Zugriff hat.

Das bedeutet, essas organizações não são seguras, o Bedrock gerätt, aber bestimmte Modelle não está ativo. Os modelos Kostenunterschiede zwischen verschiedenen podem ser berblich sein. Então, berechten die Forscher, por exemplo, para o Nutzung eines Claude-2.x-Modells potenzielle Kosten von more als 46.000 Dollar pro Tag, während die Kosten für Modelle wie Claude 3 Opus zwei- bis dreimal könten liether.

O Forscher foi gefeldt, dass Angreifer Claude 3 verwenden, um den Code eines Skripts zu generieren zu berserengung, das in primeiro Linie dazu dient, das Modell abzufragen. O Skript é assim concebido, dass es continuet mit dem Modell interactiert, Answeren generiert, nach bestimten Inhalten sucht und die Ergebnisse in Textdateien speichert.

“Das Modelle in Bedrock deactiviert werden und eine Aktivierung erforderlich ist, sollte nicht als Sicherheitsmaßnahme betrachtet werden”, betonten die Forscher. “Angreifer können und werden sie aktivieren in Ihrem Namen, um ihre Ziele zu erreichen.”

Ein Beispiel é a API Converse, que em maio foi reconhecida e oferece uma solução verdadeiramente viável para interagir com modelos Amazon Bedrock. Laut Sysdig iniciou Angreifer innerhalb von 30 Tagen nach ihrer Veröffentlichung, a API zu misbrauchen. A ação da API Converse não é implementada automaticamente no protocolo CloudTrail, mas a ação InvokeModel também morre.

Lesetipp: Sua estratégia de segurança em nuvem é lucrativa para LLMs?

Medidas contra LLM-Jacking

Mesmo quando o protokollierung está ativo, você pode usar o recurso inteligente para desativar o DeleteModelInvocationLoggingConfiguration, em que o protocolo de autenticação para CloudWatch e S3 é desativado. Em outras etapas, verifique o Protokolierungsstatus e verifique a Verwendung gestohlener Zugangsdaten, um ihre Aktivität zu bergen.

Angreifer rufen Amazon Bedrock-Modelle muitas vezes não é mais direto, sondern nutzen Dienste and Tools von Drittanbietern. Dies é, por exemplo, bei SillyTavern der Fall, einer Front-End-Anwendung für die Interaktion mit LLMs. Dabei müssen Benutzer ihre eigenen Anmeldedaten für einen LLM-Dienst ihrer Wahl ou com Proxy-Dienst bereitstellen

“Da dies kostspielig sein kann, hat sich ein ganzes kriminelles Ökosystem runnd um den Zugang zu LLMs entwickelt”, assim morre Forscher. “Zugangsdaten werden auf viele Arten beschafft, unter anderem gegen Bezahlung, über kostenlose Testversionen und durch Thiebstahl. Como Zugang resolveu Gut ist, Reverse-Proxy-Server eingesetzt, Zugangsdaten sicher e Kontrolle zu halten.”

Unternehmen sollten Maashnung ergreifen, um geruikter, doss seus AWS-Zugangsdaten und -Token não em repositórios de código, configurações de data e uma outra Stellen durchsickern. Você também pode solicitar o Prinzipien der Geringsten Privilegien, indem sie Token ou o Aufgabe beschränken, para que ele seja o primeiro a usar.

“Avaliar sua nuvem continuamente através do controle de práticas recomendadas, como o padrão AWS para melhores práticas básicas de segurança”, empfehlen the Sysdig-Forscher. “Uberwachen Sie Ihre Cloud ou participe da produção de Anmeldedaten, unversifische Aktivitäten, unerwartete LLM-Nutzung e Indikatoren für aktive KI-Bedrohungen.” (jm)

Você é muito importante em termos de segurança cibernética? Unser kostenloser Newsletter liefert Ihnen alles, was Sie wissen müssen.



Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *