Dass Medieninhalte verändert oder gefälscht werden, ist nicht neu. Die Entwicklung der Technologien der künstlichen Intelligenz (KI) respektive von Deep Learning zur Herstellung sogenannter Deepfakes hat allerdings in den letzten Jahren enorm an Tempo gewonnen. Vieles deutet darauf hin, dass das Fälschen medialer Identitäten mittelund langfristig immer weniger technisches Wissen voraussetzt. Auch wird Identitätsbetrug durch die stetige Verbesserung der Verfahren immer schwieriger zu erkennen sein.

Partner-Inhalte
 
 
 
 
 
 
Zum Autor

Michael Born ist CEO von PXL Vision mit Sitz in Zürich.

Mit der breiten Verfügbarkeit von KI-Lösungen wird die Masse an gefälschten Bildern und Videos weiter zunehmen. Davon betroffen sind auch Unternehmen, die auf digitale Kunden-Onboarding- oder Antragsprozesse setzen. Denn selbst wenn heute die dafür verwendeten Autoidentifkationssysteme noch sehr gut mit Identitätsfälschungen umgehen können, werden die Betrügenden ihrerseits mit immer besseren Fälschungen aufwarten.

Rechtliche Situation

Umso wichtiger ist es, dass die Industrie hier Gegensteuer gibt. Zwar geht die Entstehung von Deepfakes auf die Veröffentlichung eines Algorithmus auf der sozialen News-Plattform «Reddit» im Jahr 2014 zurück. Die Regulierung von Deepfake-Technologien steckt aber noch ganz in den Anfängen. Die Mühlen der Justiz mahlen bekanntlich langsam. Ausserdem scheint ein generelles Verbot von Deepfake-KI gar nicht sinnvoll. Denn nicht jeder Einsatz von Deepfake-KI muss automatisch die Verwendung für Betrugs- oder Manipulationszwecke bedeuten. Deepfakes können durchaus in der Kunst, der Unterhaltungsbranche oder für andere Kreativberufe wie etwa in der Werbung von Nutzen sein. Deshalb laufen die Regulierungsbemühungen beispielsweise bei dem in der Europäischen Union in Diskussion befindlichen AI Act, an dem sich auch die Schweiz für ihre gesetzlichen Anpassungen dereinst orientieren dürfte, eher auf eine Kennzeichnungspflicht für mit KI veränderte Inhalte hinaus.

Während der AI Act noch 2024 verabschiedet werden soll und voraussichtlich im Jahr 2026 in Kraft treten dürfte, hat der Bundesrat erst im November 2023 mögliche Regulierungsvorschläge für künstliche Intelligenz beim Bundesamt für Umwelt, Verkehr, Energie und Kommunikation (Uvek) in Auftrag gegeben. Ziel ist, das Potenzial von KI nutzbar zu machen und gleichzeitig die Risiken für die Gesellschaft zu minimieren. Organisationen aus den Bereichen E-Commerce, der öffentlichen Hand, der Telekommunikation oder des Gesundheitswesens, die bei ihren Geschäftstätigkeiten auf digitale Identifikationsprozesse setzen, sollten jedenfalls die Entwicklung rund um die Regulierung von KI und Deepfake-Betrug im Auge behalten. Dasselbe gilt für Kreditinstitute, die zur Geldwäscheprävention auf die Prüfung von persönlichen und Geschäftsdaten von Neukunden und Neukundinnen angewiesen sind.

KI-gestützte Betrugserkennung

Neue KI-Gesetze werden jedoch Kriminelle nicht davon abhalten, Betrug und Geldwäsche mithilfe falscher Identitäten zu begehen. Das Marktanalyseunternehmen Gartner prognostiziert, dass bis 2026 ein Drittel der Firmen biometrische Gesichtserkennung aufgrund von Deepfakes, die durch KI erzeugt wurden, als unzuverlässig einstufen wird. Immerhin können Identifikationslösungen heute bereits Identitätsdokumente ohne physisches Vorliegen mit hoher Erfolgsquote erkennen. Die automatisierte Betrugserkennung nutzt dazu auch Methoden der künstlichen Intelligenz. Sofern die dem Deepfake zugrunde liegenden Modelle bekannt sind, funktionieren die Lösungen recht verlässlich. Allerdings lassen sie sich nur bedingt verallgemeinern. Diesem für künstliche Intelligenz bekannten Phänomen kann wiederum mit bestehenden oder neuen Methoden des maschinellen Lernens respektive des Deep Learning entgegengewirkt werden. Es bleibt aber eine Tatsache, dass die Angreifer wie in allen Bereichen der Cyberkriminalität nicht schlafen und ihre Methoden dauernd weiterentwickeln. Es muss deshalb mit Deepfakes gerechnet werden, die sich mit den heutigen Algorithmen nicht mehr bekämpfen lassen werden.

Allein aus Cyber-Security-Sicht ist die Weiterentwicklung und Verbesserung von Deepfake-Erkennungstechnologien unumgänglich. Aber auch der Nutzen für die Gesellschaft als Ganzes dürfte erheblich sein. Denn die Authentizität von Bildern und Videos spielt eine wesentliche Rolle für die Gewährleistung einer gut funktionierenden, sicheren digitalen und realen Welt. Es ist von zentraler Bedeutung, dass das Vertrauen in die Digitalisierung und in die Echtheit von Bildern nicht unterminiert wird. Dies betrifft nicht nur digitale Identifikationsprozesse in Unternehmen, sondern auch Bereiche wie den Schutz von Persönlichkeits-, Eigentums- und anderen Grundrechten oder die Vermeidung von Justizirrtümern, die sich aus umstrittenem Bildmaterial ergeben können. Eine zuverlässige Erkennung von Deepfakes kann massgeblich dabei helfen, dieses Vertrauen wiederherzustellen und damit zu einer wirtschaftlich und politisch stabileren Welt beizutragen.

Dieser Beitrag erschien erstmals am 29. Februar 2024 in der Handelszeitung.

HZ Insurance-Newsletter DAILY
Karin Bosshard, Chefredaktorin von HZ Insurance, und ihr Versicherungsexpertenteam liefern Ihnen die Hintergründe zu Themen, welche die nationale und internationale Versicherungswelt bewegen. Jeden Tag (werktäglich) in Ihrem E-Mail-Postfach. Jetzt kostenlos zum Newsupdate für Insurance-Professionals anmelden.
HZ Insurance-Newsletter DAILY