Mit nur einem Prompt schreibt Chat GPT eine Mailvorlage, analysiert ganze PDF- oder Excel-Dateien und erstellt Texte für Präsentationsfolien. Nur: Wer promptet, macht das nicht immer ganz legal.
Viele Firmen wie Roche, Helvetia oder die Zürcher Kantonalbank haben ihre IT-Policen überarbeitet und schränken den Gebrauch öffentlich zugänglicher künstlicher Intelligenzen ein. Die Begründung liegt auf der Hand: Die Applikation ist zwar gratis, doch sie sammelt die eingegebenen Daten für das Training sowie die Weiterentwicklung der KI. Entsprechend überlegt sollte die Dateneingabe erfolgen.
Doch wenn keine adäquate Alternative im Raum steht, dann nutzen Mitarbeitende KI-Tools wie Chat GPT, Git Hub, Quill Bot, Otter oder Riverside trotzdem. Sie tun dies im Verborgenen – ohne das Wissen ihrer Vorgesetzten. Die Eingabe von Firmendaten erfolgt im Homeoffice und über den privaten Computer. So entsteht abseits der offiziellen Firmen-IT-Welt eine zweite Welt: eine Schatten-IT.
Die Risiken der Schatten-IT
Diese Schatten-IT ist seit dem Eintritt der generativen KI nahezu explodiert. Bereits im vergangenen Jahr gaben bei einer Studie von Gartner über 40 Prozent der Befragten an, Technologien ausserhalb des Firmen-IT-Universums erworben oder genutzt zu haben. Kurz darauf doppelte der Research-Service Core nach, Schatten-IT habe um 59 Prozent zugenommen, die Studie verortet den Auslöser bei der Remote-Arbeit.
Dass sich eine Schatten-IT überhaupt aufbauen kann, ist ein Indikator für einen ungenügenden Zustand der IT in der Firma. Innovationsrückstände, langsame Reaktionen oder unpassende Applikationen – so lässt sich zusammenfassen, warum Mitarbeitende lieber auf eigene Faust KI-Tools nutzen, statt auf die Firma zu warten.
«Können interne Programme nicht mit den Erwartungen oder Markttrends mithalten, dann nehmen Mitarbeitende ihr Glück selbst in die Hand, um diese Lücke zu schliessen und die eigene Effizienz zu gewährleisten», sagt Tim Cadenbach. Er ist Entwickler beim KI-Unternehmen Deepl. «Die Existenz von Schatten-IT ist eine Art Wink mit dem Zaunpfahl seitens der Belegschaft.»
Löbliche Absichten mit unlöblichem Ergebnis
Denn: Die Absichten der Mitarbeitenden sind eigentlich löblich, da sie sich durch die Nutzung eine Effizienzsteigerung erhoffen. Die Erfahrung lehrte sie, dass sie mit dem Tool schneller ans Ziel gelangen, als wenn sie den komplizierten Firmenweg nehmen. Doch sie vergessen dabei, dass bei der Nutzung von Gratis-KI grosse Risiken bestehen.
Die Belegschaft füttert die KI mitunter mit ganz sensiblen internen Dateien. Die KI wiederum nutzt die Unterlagen zum Lernen – und spuckt deren Inhalt im Extremfall als Antwort auf eine Frage der Konkurrenz aus. Im Fachjargon nennt sich diese Situation «gelernter Output».
Noch riskanter ist, wenn Hacker ins Innere der KI gelangen. Sie erhalten Zugang zu allem, was jemals hochgeladen wurde, und können diese Informationen gegen die Firmen verwenden. Oder aber eine Firma wie Open AI nutzt die Trainingsdaten für sich, und die KI verkauft die Informationen als ihre Eigenkreationen – was die Urheberrechte verfälschen kann.
Firmen müssen das Thema adressieren
Damit keines dieser Schreckensszenarien in Kraft tritt, müssen Firmen aktiv werden. Laut der jüngsten Datenerhebung von Deloitte nutzen schweizweit bereits mehr als 60 Prozent der Computernutzer und -nutzerinnen täglich ein generatives KI-Tool – «bisweilen auch ohne das Wissen ihrer Vorgesetzten».
Auf die Nachfrage, wie Firmen diese Problematik minimieren können, erklärt Marc Beierschoder, Studienautor und Leiter AI & Data bei Deloitte Schweiz, deren Massnahmenkalender: «Aller Anfang macht eine Informationskampagne, die das Bewusstsein fördert und Transparenz schafft.» Dabei müssen aber nicht nur die Mitarbeitenden informiert werden, auch die Firma muss lernen, was sich ihre Belegschaft wünscht. Darauf aufbauend definiert eine Firma Richtlinien und bietet – wo nötig und möglich – Alternativen an.
Sauer aufstossen dürfte einigen in der Firma der nächste Schritt: die Überwachung. Firmen dürfen grundsätzlich jederzeit auf die geschäftlichen Daten der Angestellten zugreifen, wie Rechtsanwältin Nicole Vögeli Galli weiss. Es gibt auch Applikationen, die Alarm schlagen oder eine Seite sperren, wenn Mitarbeitende beispielsweise auf Cloud-Services zugreifen wollen, die nicht erlaubt sind.
Mitarbeitende schulen, um Vertrauen zu schaffen
Damit keine Misstrauenskultur in Firmen entsteht, müssen Firmen ihre Leute schulen – und erneut kommunizieren. Dazu gehört auch eine Anlaufstelle für KI, an die sich die Mitarbeitenden bei Fragen wenden können. «Das Ziel ist die Errichtung eines kontinuierlichen Prozesses», erklärt Beierschoder.
Denn: «Der Trend um KI wird weitergehen, das bedingt ein positives Umfeld, in dem sich Mitarbeitende auch äussern und ihre Anliegen in Bezug auf KI und Daten einbringen können.»