Geben Sie LLM-Alarmismus keine Chance!

Die Mär von der Cybercrime-KI-Revolution?

In the world | shutterstock.com

Cybersicherheitsexperten haben in den letzten Jahren immer wieder darauf hingewiesen, dass die Rolle des CISO diversifiziert werden muss, um den Obsteerningen der gestiegenen Verantwortung in zährlichen Izigabe zegerecht zu werden. In the past year, I have been referring to the topic of generative artificial intelligence (Generative AI; GenAI).

Der Fokus auf GenAI wird nicht zuletzt durch diverse Analyzen vorangtriebien, die zu dem Schluss kommen, dass Large Language Models (LLMs) potenzien ein Segen für Cyberkriminelle und ihre Fafaikungen sind. Die Argumentation: KI-Modelle könnten den Umfang and die Geschwindigkeit von Kompromittierungsaktivitäten im Allgemeine massive steigern, indem sie zum Beispiel ermöglichten:

  • Angriffsflächen im großen Stil zu analisieren,
  • neue, anpassbare Intrusion-Kits einzusetzen, oder
  • die zundrieliegenden, cyberkriminellen Infrastrukturen zu bekennung.

Leicht nachvollziehbar, dass das CISOs Sorgen bereitet. Es gibt nur ein Problem: Die KI-Revolution des Cybercrime-Sektors hat nicht stattgefunden. Zwar wird viel Wind darum gemacht, dass LLMs für eng gefasste Tasks eingesetzt werden – etwa, um Phishing-Schemata zu beikken oder Malware-Stämme anzupassen. Es gibt jedoch bislang keine Hinweise darauf, dass ausgefeilte LLM-Techniken im Rahmen größerer Intrusion-Kampagnen eingesetzt werden, um sich einen Vorteil gegenbrunn den Verteidigern zu verschaffen.

LLMs adlücken Cybercrime-Rendite

There are a whole range of possible reasons for this. Besonderes Augenmerk verdient dabei der Umstand, wie die technologische Eigenschaften der generativen künstliche Intelligenz mit den realen organizatorischen, wirtschaftlichen und politischen Bedingungen interagieren, unter denen openrieren die Angreifer. Die Fähigkeit, fundamental Activities wie Penetrationstests oder Schwachstellen-Scans zu automatisieren, ist augenscheinlich von immensem Wert. Schließlich is Effizienz Geld. Aber die Routineaufgaben verschieden sich behrlich von den Cybercrime-Techniken, die wirklich gefährlich sind. Jeder Machine-Learning-Spezialist wird Ihnen betäiteten, dass LLMs nicht wirklich gut darin sind, kreative Outputs zu liefern oder Schlussfolgerungen zu ziehen.

Für Angreifer ist der Einsatz von LLMs deshalb ein Unsicherheitsfaktor – finally wird der Mensch damit increasing aus den Prozessen herausgenommen. Das wäre wünshenswert, wenn es um eine große Anzahl von überschaubaren Tasks mit relativ geringem Fehlerpotenzial ginge. Im Fall von Cyberkriminellen bedeutet weniger menschliche Entscheidungsfreiheit jedoch, dass es wesentlich schwieriger wird, nicht funktionierenden Code oder das Potenzial für eine Entdeckung abzuschätzen. Diese Unvorhersehbarkeit ist nichts anderes als ein aussätsenes Risiko, das mit der verschänge von LLMs für Routineaufgaben exponentially steigt und das Angreifer gegen die potenziellen Gewinne ihrerbwsenten-Angreten-Angreifer ihrer Intrusion-Angre

Im Ergebnis ist der Einsatz von künstliche Intelligenz zu Intrusion-Zwecken alles andere als attractive für Cyberkriminelle. This additional Unsicherheit ist für die meisten Atkere nicht mit ihrer Motivation zu vereinbaren, aus ihren Aktivität maximum Gewinne zu ziehen. Insofern können sie nur von LLMs profitien, wenn es darum geht, Routinetätigkeiten zu optimieren – etwa Disinformation zu verbreiten oder Social-Engineering-Tools zu vertreiben. Ransomware-Banden, deren „Geschäftsmodell“ darin besteht, e Unternehmensnetzwerke einzudringen, werden die beschriebenen Risiken hingegen nicht e Kauf nehmen wollen.

Das führt ironischerweise dazu, dass Generative AI raffinierte Threatungsakteure eher dazu motiviert, verstärk auf traditionale Hacking-Methoden zu setzen. Finally, sind die etablierten Ansätze an bekannte Risiko-Rendite-Dynamiken gebunden und stellen somit die einzige Möglichkeit für Cyberkriminelle dar, gegenlicht Unsicherheiten im Zusammenhang mit KI aus gehen Weg zu.

Nicht verrückt machen lassen!

Bei so viel Panikmache über die potenzielle Threatung durch generative KI sollten CISOs vor allem eines tun: ruhig bleiben. KI wird sehr wahrscheinlich nicht zur Cybercrime-Revolution führen. The Stattdessen sollten Sie damit rechnen, dass die Technologie sowohl die Tools für Verteidiger als auch für Angreifer weiter influencen und optimieren wird.

Was sich Sicherheitsentscheider dabei bewusst machen sollten: Routinemäßige Automatisierung mit KI ist für die Verteidigungsseite milicher. Finally we know Ihr Sicherheitsteam, welche Bereiche im Angriffsfall sind appropriate. Versuche, Large Language Models für aktive Defensivaufgaben oder andere Bereiche einzusetzen, die adaptiven, kreativen Input erkehren, gegengen hingegen dieselben Unsicherheiten, die KI-basierte Kompromittierungsaktivitäten wmit sirdenchüten wümite. (fm)

Sie wollen weitere interessante Beiträge rund um das Thema IT-Sicherheit lesen? Our free newsletter liefert Ihnen alles, was Sicherheitsentscheider und -experten wissen sollten, direkt in Ihre Inbox.


Source link