Künstliche Intelligenz (KI) bietet bekanntermassen enorme Chancen – sowohl für Unternehmen als auch für Cyberkriminelle. Doch welche neuen Security-Herausforderungen kommen im Zusammenhang mit KI auf Unternehmen zu und welche KI-basierten Bedrohungen werden 2024 prägen?
Forcepoint, der globale Anbieter von Cybersicherheit, wirft einen Blick auf die wichtigsten Entwicklungen.
Cyberbedrohungslage weiter verschärft
In den vergangenen Monaten hat KI laut Mitteilung von Forcepoint viele Unternehmen im Sturm erobert, aber auch die Cyberbedrohungslage weiter verschärft. Die vielen neuen KI-basierten Tools vergrössern demnach nicht nur die Angriffsfläche, sondern sind auch für Cyberkriminelle wertvolle Helfer bei der Vorbereitung und Durchführung von Attacken. Der Sicherheitsspezialist Forcepoint nennt vier Entwicklungen, die das neue Jahr prägen werden:
- Bösartige KI-Tools senken die Cybercrime-Einstiegshürden: Cyberkriminelle nutzen KI, um Phishing-Mails zu erstellen, Deepfakes zu produzieren und Malware-Code zu optimieren. Inzwischen können sie dafür zwar nicht mehr ChatGPT und Co. missbrauchen, da Filter dies weitgehend verhindern, doch längst gibt es im Darkweb einige Alternativen wie WormGPT, FraudGPT und DarkBERT. Da mehr und mehr unzensierte Open Source Large Language Models (LLMs) verfügbar sind, wird die Zahl solcher bösartigen KI-Tools in den kommenden Monaten deutlich zunehmen. Schliesslich lassen sich die Modelle mit effizienten Finetuning-Methoden schnell und ohne grosse Rechenressourcen anpassen – auch für kriminelle Zwecke. Werden sie dann im Abo-Modell angeboten, wie das bei vielen Hacking-Tools üblich ist, können auch wenig begabte Cyberkriminelle sie nutzen, um ohne Programmierkenntnisse gefährliche Malware zu erstellen – ganz einfach im Dialog mit der KI.
- Manipulationen an Trainingsdaten schwächen die KI: Mit den wachsenden Nutzerzahlen wird es für Cyberkriminelle zunehmend interessant, KI-Tools zu manipulieren, denn schon mit einem einzigen kompromittierten Angebot können sie grossen Schaden anrichten. Dafür nutzen sie Data Poisoning – das Verfälschen der Trainingsdaten durch eine Veränderung der Datensätze selbst oder den Austausch der zugewiesenen Labels. Ziel ist, dass die KI insgesamt oder in einzelnen Bereichen ungenauer arbeitet oder bei bestimmten Eingaben eine genau spezifizierte Ausgabe liefert. Entdecken lässt sich Data Poisoning nur schwer, und das Aufspüren und Entfernen der fehlerhaften Datensätze ist extrem aufwendig – oft bleibt nur ein Re-Training der KI mit frischen Daten. Deutlich weniger aufwendig ist es, die Trainingsdaten durch Zero-Trust-Konzepte vor unberechtigten Zugriffen und unerwünschten Veränderungen zu schützen.
- Regulierung erhöht den Compliance-Aufwand: Oft trainieren sich KI-Modelle Vorurteile an, die in den Trainingsdaten stecken, weil diese schon älter sind und nicht mehr den heutigen Standards hinsichtlich Gleichberechtigung und Fairness entsprechen. Oder weil sie aus dem Internet stammen und gesellschaftliche Vorurteile enthalten. Da manche KI-Systeme zudem nicht transparent arbeiten, also nicht nachvollziehbar ist, wie sie zu ihren Entscheidungen kommen, sind ethische Standards und regulatorische Vorgaben wichtig, um KI sicher und fair zu gestalten. Verschiedene Organisationen und Unternehmen arbeiten daher an Best Practices und Ethik-Frameworks, während die EU und die USA mit Gesetzen generelle Leitplanken für den KI-Einsatz setzen wollen. Das dürfte in den nächsten Monaten zu einer zunächst uneinheitlichen Regulierungslandschaft und einem hohen Compliance-Aufwand für Unternehmen führen, aber den Schutz der Menschen vor Diskriminierung oder Benachteiligung verbessern. Und das auch im Security-Bereich – schliesslich könnte eine Sicherheitslösung mit vorurteilsbehafteter KI beispielsweise Anwendern den Zugriff auf dringend benötigte Ressourcen verweigern.
- Richtlinien für den KI-Einsatz zahlen sich aus: Viele Unternehmen glauben, sie müssten KI möglichst schnell einsetzen, um im Wettbewerb nicht zurückzufallen. Dabei geht es nicht nur um Geschwindigkeit, sondern auch Risikominimierung, sprich: Regeln, die den Abfluss sensibler Daten verhindern. Denn sind personenbezogene Daten, vertrauliche Finanzinformationen oder Quellcode und anderes geistiges Eigentum erst einmal mit externen KI-Tools geteilt, können Unternehmen nicht mehr beeinflussen, was mit ihnen geschieht. Gut möglich, dass die Daten für das Training der KI-Modelle verwendet werden und irgendwann in den Antworten für andere Nutzer landen. Unternehmen müssen KI deshalb besser in ihre Security-Strategien integrieren und mit Richtlinien steuern, welche Mitarbeiter welche KI-Tools nutzen dürfen und welche Daten mit den Tools geteilt werden können. Auch selbst entwickelte KI-Tools sollten von den Richtlinien abgedeckt werden, insbesondere wenn sie mit internen Daten trainiert und später Partnern oder Kunden zur Verfügung gestellt werden. Bislang waren solche KI-Tools eher die Ausnahme, da die Entwicklung von LLMs aufwendig und kostenintensiv ist. Doch dank Open Source LLMs fällt es Unternehmen zunehmend leichter, ihre Produkte und Services mit einer eigenen KI zu verbessern.
Für kriminelle Zwecke missbraucht
«Mit KI geht der Wettlauf zwischen Cyberkriminellen und Sicherheitsexperten in die nächste Runde», betont Fabian Glöser, Team Leader Sales Engineering bei Forcepoint in München. «Sie verbessert viele Sicherheitslösungen, wird aber auch für kriminelle Zwecke missbraucht. Zudem bietet der zunehmende Einsatz von KI-basierten Tools in Unternehmen neue Angriffspunkte und Risiken für Datenabflüsse, worauf sich Sicherheitsteams einstellen müssen.» (pd/hzi/hoh)