Laut einer Untersuchung der Plattform appliedAI würden entsprechend der neuen Regeln mehr als die Hälfte der KI-Anwendungen in den sogenannten Hochrisiko-Bereich fallen, was eine weitere Nutzung nicht ohne einen erheblichen finanziellen und personellen Mehraufwand möglich machen würde. Konkret kommt die Datenbankrecherche zu dem Ergebnis, dass 18 Prozent der 106 untersuchten KI-Systeme der Hochrisiko-Klasse und 42 Prozent der Klasse mit geringem Risiko zuzuordnen wären. Bei etwa 40 Prozent der untersuchten Anwendungen sei eine Klassifizierung derzeit nicht zweifelsfrei möglich, hiess es weiter. Dies bedeute, möglicherweise könnten für knapp 60 Prozent aller Anwendungen hohe Anforderungen und Zertifizierungspflichten anfallen.
Zum Bild: Selbstfahrende Autos versuchen mit Hilfe von KI, das Verhalten anderer Verkehrsteilnehmer vorherzusagen.
Regeln für den Einsatz Künstlicher Intelligenz
Anfang Dezember hatten die EU-Staaten erstmals umfassende Regeln für den Einsatz Künstlicher Intelligenz festgelegt. Der Beschluss solle sicherstellen, dass KI-Systeme sicher seien und Grundrechte einhielten, teilte der Rat der EU-Staaten damals mit. Bevor die neuen Regeln tatsächlich gelten, müssen sich die EU-Staaten noch mit dem Europaparlament auf eine Linie verständigen. Das Gesetz setzt auf globale Standards. Je höher die potenziellen Gefahren einer Anwendung sind, desto höher sollen die Anforderungen sein. Für Regelverstösse sind hohe Strafen vorgesehen.
KI-Verordnung der EU: Risikofixiert und unklar
«Die Studie zeigt: Der Entwurf der KI-Verordnung der EU ist zu risikofixiert und an zu vielen Stellen noch unklar. Ein solches Regelwerk funktioniert in der Praxis nicht und bringt unnötige Hürden für die Wirtschaft», sagte Bayerns Digitalministerin Judith Gerlach (CSU). Für die Untersuchung wurden in einer Datenbank registrierte KI-Anwendungen von Unternehmen in Deutschland entsprechend der EU-Regeln bewertet.
appliedAI-Geschäftsführer Andreas Liebl warb für eine Überarbeitung der Regeln zur Risikoklassifizierung: «Während wir definitiv eine gute Regelung für den Einsatz riskanter KI-Systeme brauchen, dürfen wir nicht die Vorteile dieser Systeme vergessen und uns einseitig auf das Risiko fokussieren.» Hinzu komme, dass jede Art von Unsicherheit in Kombination mit hohen Strafen dazu führe, dass Unternehmen übervorsichtig entscheiden werden und womöglich viel zu viele Anwendungen ausschliessen. (awp/hzi/kbo)