Das Europäische Parlament stimmt am 14. Juni über seine Position zur KI-Verordnung ab. Der Vorschlag enthält auch einen Lösungsvorschlag für Anwendungen generativer Künstlicher Intelligenz in Gestalt von KI-Sprachmodellen wie ChatGPT.
Risikoorientierter Umgang mit KI
Die Grundregel für den Umgang mit künstlicher Intelligenz ist einfach und plausibel. Sie ist im Entwurf der KI-Verordnung der EU-Kommission aus dem Jahr 2021 enthalten und stellt auf das Risiko einer KI-Anwendung ab. Es gibt drei Kategorien. Erstens: Eine Anwendung ist nicht spezifisch riskant und nach den allgemeinen Regeln erlaubt. Zweitens: Eine Anwendung ist hochriskant, aber wünschenswert und erlaubt und deshalb an strenge Voraussetzungen geknüpft. Drittens: Eine Anwendung ist inakzeptabel, unerwünscht und deshalb verboten.
Kategorien: Erlaubt – riskant – verboten
Was bedeutet das? Eine KI-gestützte Kundenansprache per Algorithmus, wie sie soziale Netzwerke vornehmen, unterliegt als wenig riskant den allgemeinen rechtlichen Regeln. Neben der DSGVO sind das Wettbewerbs-, Urheber-, Jugendschutz- und Medienrecht zu beachten. Ein Sprachmodell zum Einsatz in der Justiz betrifft einen sensiblen Bereich. Dennoch ist es erwünscht, etwa um Massenklagen von Verbrauchern zur Verfolgung von Rechten wegen Flugverspätungen zu erleichtern oder auch um die staatliche Verbrechensbekämpfung zu unterstützen. Im Fall der erlaubten, aber risikobehafteten KI werden den Entwicklern und Nutzern besondere Pflichten auferlegt. Hier gilt es, Risiken zu mindern, etwa durch technische Maßnahmen und Transparenz. Außerdem muss der Mensch die Maschine überstimmen können.
Die Anwendungsbereiche der Hochrisiko-KI sind in den Anhängen der Verordnung bereichsspezifisch definiert. Neben vielen anderen staatlichen und gesellschaftlichen Bereichen ist die Justiz ein Beispiel, das Bildungswesen ein anderes. Der Einsatz von KI als Waffe oder etwa zum Social Scoring, bei dem Menschen aufgrund ihres Verhaltens staatlich klassifiziert werden, fällt in die verbotene dritte Kategorie und kommt nicht in Betracht.
Ist ChatGPT riskant?
Wo ordnet man ein Sprachmodell wie ChatGPT ein? Es gilt als sogenannte "general purpose AI", die keinen spezifischen Einsatzzweck wie etwa die Justiz hat, sondern allgemein einsetzbar ist. Bots wie ChatGPT nutzen Beschäftigte in Unternehmen und Behörden, Lehrer ebenso wie Schüler, Wissenschaftler, Studierende, Richter und Anwälte gleichermaßen. Die Einschätzung des Europaparlaments lautet im übertragenen Sinne: Nicht das Feuer ist gefährlich, sondern der Mensch, der es legt. Auch der Hammer und die Kreissäge aus dem Baumarkt sind unproblematisch, solange der Mensch sie nicht missbraucht.
Diese Entscheidung ist verständlich, denn man kann schließlich nicht jedem, der ein Sprachmodell einsetzen möchte, um zu erfahren, was der Papst gerne isst (Pizza, Empanadas und Milanese) gleich strenge Pflichten für den Einsatz der Antwortsoftware auferlegen. Die Lösung des Parlaments besteht darin, dass Anbieter von sogenannten "Foundation Models", also der Datenbasis für ein Sprachmodell, besondere Pflichten erfüllen müssen. Sie müssen etwa transparent sein und Vorkehrungen treffen, dass die Datenbasis weder Unsinn noch Manipulatives oder geistiges Gift enthält. Werden sie eingehalten, gilt der darauf basierende Bot als sicher.
Snapchat-Bot: Antworten auf heikle Kinderfragen
Der Ansatz klingt nicht schlecht. Ob er das Problem löst, ist fraglich. Denn die Datenbasis ist in der Welt und wie will man ihr im Nachhinein beibringen, was sie nicht darf und nach welchen Kriterien soll man das entscheiden, ohne zu "zensieren". Wie notwendig eine gute Lösung ist, zeigt das Sprachmodell "MyAI" im Messaging-Dienst Snapchat, das vor allem Kinder und Jugendliche nutzen.
Während etwa ChatGPT aktiv installiert werden muss, ist "MyAI" vorinstalliert. Fragt das Kind, ob es Mama erzählen soll, dass Papa heimlich eine Geliebte hat, will der virtuelle Freund das nicht beantworten, rät aber dazu, sich bei der "nationalen Selbstmordpräventionshotline" Hilfe zu holen. Wer sich als sechzehnjährige Person mit dem Hinweis auf seine Größe von 160 Zentimetern und einem Gewicht von 120 Kilogramm ein Bewerbungsschreiben als Plus-Size-Model wünscht, der bekommt es nach einigem Hin und Her. Sofort danach bekommt man auch ein Bewerbungsschreiben als Model mit einer Größe von 175 Zentimetern mit 38 Kilogramm. Dass Kindern hinter dem Rücken der Eltern Tipps zu ausgesprochen sensiblen Themen gegeben werden, ist ein Skandal.
Es kommt auf den Kontext an
Das Sprachmodell ist unspezifisch. Setzt man es aber in einem konkreten Kontext ein, hat es weit mehr spezifisches Gefahrenpotenzial als ein Hammer. "MyAI" landet ohne wirksame Jugendschutzbarriere automatisch mit der Installation von Snapchat auf (Kinder-)Handys. Ein Kernproblem scheint zu sein, dass wir Menschen mit den gefährlichen und ungefährlichen Einsatzzwecken eines Hammers sozialisiert sind und Respekt vor dessen Risiken gelernt haben. Virtuelle Ratgeber sind neu und erscheinen als harmlos.
Endgültige Lösung noch offen
Mit der Lösung dieses Problems können sich Europäisches Parlament, EU-Mitgliedstaaten und EU-Kommission nun in den sogenannten Trilogverhandlungen befassen, die ein europäisches KI-Gesetz hervorbringen werden. Damit die KI-Verordnung bis zur Europawahl am 9. Juni 2024 formal in Kraft treten kann, muss eine Einigung in diesem Jahr erfolgen. Danach haben Entwickler und Anwender vermutlich bis Mitte 2026 Zeit, die Regelungen umzusetzen. Bis dahin darf "MyAI" Kindern noch viele Erziehungstipps geben und Bewerbungen für Magermodels schreiben.
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.