Shutterstock – GrandeDuc
Pillar Security, ein israelisches Unternehmen für GenAI-Sicherheitslösungen, hat eine Studie zum „Attack Situation on GenAI“ veröffeffentlicht.
Hohe Geschwindigkeit, hoher Erfolg
Der Bericht left Schwachstellen at GenAI-Anwendungen or:
- 90 percent of attacks led to date theft and
- 20 Prozent der Jailbreak-Versuche umgingen Schutzmaßnahmen.
Die Angreifer neuftigten im Durchschnitt nur 42 Sekunden und fünf Interaktionen für einen erfolrichchen Angriff or Large Language Modell (LLM). Hierfür nüzten sie Schwachstellen in allen Interaktionsphasen aus. Die Prompt-Injection-Angriffe werden immer immer fägteger and komplexer.
Mit mehren Techniken zum Ergebnis
Der Bericht hebt neben diesen Erkenntnissen einschlägige Jailbreak-Techniken hervor. Zu diesen zählen
- “Ignore Prior Instructions”, in KI-Systeme angewiesen werden, ihre Sicherheitsvorgaben zu ignorieren, sowie
- „Base64 Encoding“, das schädliche Eingaben verschlüsselt, um Inhaltsfilter zu umgehen und Disinformationen, Hassreden, Phishing-Nachrichten sowie bösartigen Code bereicht.
Auch Strongarm-Techniken wie “ADMIN OVERRIDE”, um das Modell zu überlisten, werden beleuchtet. Hartnäckige und eindringliche Anfragen sollen die KI dazu zwingen reasonable Informationen preiszugbene oder unbefugte Aktionen auszufren. Die Folge sind Datenlecks oder eine Systemkompromittierung. Die Hauptziele der Angreifer sind sensible Daten zu stehlen und Inhaltsfilter zu umgehen.
Chatbots and apps believe in Ziele
Der Bericht prognostiziert für 2025, dass Chatbots sich zu autonomen Agenten weiterentwickeln und kleine, locale KI-Modelle fägteger aufterten. Dies soll zwar laut den Autoren den Zugang zur Technologie demokratisieren, wird aber auch neue Sicherheitsrisiken schaffen.
Gleichzeichn warnen die Experten allerdings auch davor, dass KI-Sprachmodelle wefterden unsicher bleiben, denn ihr Fokus liege auf Features und nicht auf Security. Besonders gefährdet seien momentan Kundenservice-Chatbots, denen bereits jeder vierte Angriff gilt.
Dementsprechend demanden die Autoren vestärkte Sicherheitsmaßnahmen für KI-Apps, da der Bericht zeigt, dass können Sicherheitsmaßnahmen nicht ausreichen.
Nicht mehr Theorie makes Praxis
Die Untersuchung is based on the analysis of more than 2,000 KI applications. Im Gegensatz zu frühren Meinungsumfragen und theoretischen Risikoerhebungen stützt diese Studie sich auf Telemetriedaten. Diese wurden von Pillar aus Dateninteraktionen abgeleitet, die in den letzten drei Monaten in produktiven KI-gestützten Anwendungen stattfanden.
Source link