Die Themen Künstliche Intelligenz und LLMs (Large Language Models) ist seit ChatGPT und DeepSeek nicht mehr aus den Schlagzeilen wegzudenken. Fakten, Mythen und Visionen mischen sich munter durcheinander und machen so eine Einschätzung für Unternehmen, welchen Einfluss die Technologie auf ihre Sicherheit hat, besonders schwer. Die Sicherheitsforscher des Sophos X-Ops-Teams haben sich deshalb in zwei Analysen den Stand beim Einsatz von KI in der Cyberkriminalität einmal näher angesehen und zudem einen Leitfaden erstellt, der den Hype rund um künstliche Intelligenz kritisch unter die Lupe nimmt. Der Report „The Dark Side of AI: Large-scale scam campaigns made possible by Generative AI“ untersucht anhand eines konkreten Fallbeispiels, wie Betrüger in Zukunft Technologien wie ChatGPT nutzen könnten, um mit minimalen technischen Fähigkeiten Betrugsattacken in großem Umfang durchzuführen. Der zweite Bericht „Cybercriminals can’t agree on GPTs“ stellt die Untersuchung verschiedener Dark-Web-Foren vor. Die Ergebnisse zeigen, dass einige Cyberkriminelle trotz des Potenzials der neuen Technologie skeptisch gegenüber dem aktuellen Einsatz von Chatbots und anderen KI-Technologien sind. Last but not least klärt der Report „KI-gestützte Cybersicherheit: Was Unternehmen wirklich erwarten (können)“, darüber auf, was auf der „guten Seite“ der Macht zu tun ist.

Die dunkle Seite der KI

Mit einer einfachen E-Commerce-Vorlage und großen Sprachmodell-Tools wie GPT-4 konnte Sophos X-Ops eine voll funktionsfähige Website mit KI-generierten Bildern, Audio- und Produktbeschreibungen sowie eine gefälschte Facebook-Anmeldeseite und eine gefälschte Checkout-Seite erstellen, um persönliche Anmelde- und Kreditkartendaten abzuschöpfen. Für die Erstellung und den Betrieb der Website waren nur minimale technische Kenntnisse erforderlich. Mit demselben Tool war es zudem möglich, innerhalb von Minuten mit nur einem Knopfdruck Hunderte ähnlicher Websites zu erstellen.

„Es ist selbstverständlich und wird entsprechend von uns erwartet, dass Kriminelle zur Automatisierung ihrer Machenschaften auf neue Technologien zurückgreifen, um so effektiv wie möglich agieren zu können“, so Ben Gelman, Senior Data Scientist bei Sophos. „Die ursprüngliche Erstellung von Spam-E-Mails war ein entscheidender Schritt in der Betrugshistorie, da er das Ausmaß des kriminellen Spielfelds maßgeblich veränderte. Die aktuelle Entwicklung in Sachen Künstlicher Intelligenz hat ein ähnliches Potential: Sobald es eine KI-Technologie gibt, die vollständige, automatisierte Bedrohungen erzeugen kann, wird sie zum Einsatz kommen. Die aktuell zu beobachtende Integration generativer KI-Elemente in klassische Betrügereien, etwa durch KI-generierte Texte oder Fotos, um Opfer anzulocken, bildet nur den Anfang.“

Cyberkriminelle stellen Potential von GPTs & Co. (noch) in Frage

Im zweiten Teil seiner KI-Forschungsoffensive untersuchte Sophos X-Ops die Einstellung von Angreifern gegenüber dem Einsatz von KI-Technologien und analysierte dazu vier prominente Dark-Web-Foren hinsichtlich der auf große Sprachmodelle (Large Language Models, LLM) bezogene Diskussionen. Während der Einsatz von KI durch Cyberkriminelle offenbar noch in den Kinderschuhen steckt, diskutieren Bedrohungsakteure auf diesen Plattformen bereits intensiv über das Potenzial für Social Engineering. 

Darüber hinaus stellten die Forscher fest, dass sich die meisten Beiträge auf zum Verkauf stehende kompromittierte ChatGPT-Konten und „Jailbreaks“ bezogen – Möglichkeiten also zur Umgehung der in LLMs integrierten Schutzmaßnahmen, sodass Cyberkriminelle die Tools für böswillige Zwecke missbrauchen können. Das Forscherteam fand außerdem zehn ChatGPT-Anwendungen, von denen die Entwickler behaupteten, dass sie für Cyberangriffe und die Entwicklung von Malware verwendet werden könnten. Allerdings wurde die Effektivität solcher Tools von Teilen der Dark-Web-Gemeinde stark angezweifelt und zum Teil sogar als Versuch gewertet, mit nutzlosen Programmen zu betrügen.

Wie Organisationen KI-Technologie sinnvoll nutzen

Bereits in vollem Gange ist hingegen der Einsatz von generativen LLMs (Large Language Model), wenn es darum geht, die Cybersicherheit im Unternehmen zu erhöhen. DeepSeek, Chat GPT & Co. sorgen dafür, dass das Thema in den IT-Abteilungen aktuell viel Aufmerksamkeit erfährt. Unternehmen werden mit verlockenden Versprechungen einer KI-gestützten Transformation der Cybersecurity geradezu bombardiert: mehr Schutz, niedrigere Kosten, ein geringerer Bedarf an Fachkräften. Gleichzeitig wird davor gewarnt, dass KI eine völlig neue Ära von Cyberangriffen einläuten wird. 

Umso wichtiger ist es, sich ein klares Bild über den Status Quo und eine potentielle Strategie in Sachen Künstliche Intelligenz zu machen. Sophos hat hierzu einen Leitfaden erstellt, der Unternehmen dabei hilft, den Hype und die Missverständnisse rund um KI in der Cybersicherheit besser einzuschätzen. Leser erfahren, was KI leistet (und was nicht), um die Cyberabwehr in Unternehmen zu optimieren, und welche Risiken KI für Cybersicherheit und Betriebsabläufe mit sich bringt. Dazu gibt es Tipps, wie Organisationen mögliche Gefahren minimieren und so die Vorteile von KI sicher nutzen können, um sowohl Ihren Cyberschutz als auch Ihren Return on Investment zu verbessern. 

Zudem liefert der Guide Einblicke in die Praxis: Wie sieht die KI-Nutzung in der Realität aus? Welche Erwartungen und Bedenken bestehen? Die Erkenntnisse hierzu beruhen auf den Ergebnissen einer unabhängigen, Ende 2024 durchgeführten Befragung von 400 IT- und Cybersecurity-Entscheidern. Diese direkten Erfahrungsberichte bieten eine wertvolle Orientierungshilfe für Unternehmen, die über Einsatzmöglichkeiten von KI nachdenken. Der vollständige Report „KI-gestützte Cybersicherheit: Was Unternehmen wirklich erwarten (können)“ kann hier heruntergeladen werden.