KI-Systeme wie ChatGPT halten in Unternehmen und Behörden zunehmend Einzug. Es handelt sich bei diesen Werkzeugen um spezielle Arbeitsmittel. Ihre Besonderheit besteht darin, dass sie autonom arbeiten und dass das, was sie uns an Inhalten anbieten, weder vorhersehbar noch berechenbar ist.

Rolf Schwartmann
Eine Kolumne
Diese Kolumne stellt die Sicht von Rolf Schwartmann dar. Informieren Sie sich, wie unsere Redaktion mit Meinungen in Texten umgeht.

Man kann KI-Systeme mit Tieren vergleichen. Auch Spürhunde oder Polizei- oder Zugpferde sind nüchtern betrachtet lebende Werkzeuge. Das Tierschutzrecht gewährt ihnen keine Rechte, verpflichtet aber den Menschen zu ihrem Schutz und zu einer tiergerechten Behandlung. Was das ist, definiert allerdings der Mensch.

Mehr zum Thema Digitales

Wenn wir Tiere halten oder im Beruf einsetzen, dann müssen wir uns darüber klar sein, dass wir ihr Inneres nicht beherrschen, sondern nur ihren Einsatz kontrollieren können. Tiere verantworten sich im Gegensatz zum Menschen nicht für Fehlverhalten oder haften gar dafür.

KI und Tiere machen keine Fehler

Genau genommen kann man rechtlich gar nicht von Fehlern eines Tieres sprechen. So ist es auch bei KI-Systemen wie ChatGPT. Dass Tiere eine Seele haben, können wir glauben. Dass sie Gefühle haben, können wir fühlen. Sie sprechen aber nicht mit uns in unserer Sprache darüber. Die Sprache macht uns Menschen zu besonderen Geschöpfen, weil wir Geschichte erfinden, erzählen und verbreiten können.

Das wiederum können KI-Systeme und sie erwecken so den Eindruck, als seien sie intelligent oder gar menschlich. Auf Gefühle oder gar eine Seele von KI-Systemen lassen die "KI-Gedanken" aber nicht schließen. Anders ein Tier beißt KI nicht. Wir haben noch kaum negative Erfahrungen mit der neuen Technik gemacht und sehen vielleicht nicht ein, warum wir uns vor Risiken, die man erst bei genauerem Hinsehen "mit Händen greifen" kann, schützen sollen.

Was sind KI-Systeme mit allgemeinem Verwendungszweck?

Alltag und Berufsleben haben vor allem KI-Systeme mit allgemeinem Verwendungszweck (engl. General Purpose Artificial Intelligence Systems, kurz: GPAI-Systems) erobert. Ihre Besonderheit besteht darin, dass sie dafür gemacht sind, alles, aber nichts Spezielles zu können. Sie haben keinen spezifischen Verwendungszweck, wie etwa den Einsatz zum Personalmanagement oder in der Schule.

Sie sind Alleskönner, die für beliebige Zwecke eingesetzt werden können. Das bekannteste Beispiel ist der Sprachbot ChatGPT. Es gibt aber auch KI-Systeme, die Bilder erstellen und auch kombinierte Angebote, wie sogenannte Kopiloten.

Alleskönner sind mit Vorsicht zu genießen

GPAI-Systeme können Liebesgedichte und Hassreden schreiben. Man muss sie mit besonderer Vorsicht genießen, weil sie dazu geeignet sind, erlaubte und rechtlich problematische Ergebnisse hervorzubringen. Wer sie nutzt, muss entscheiden, ob der Inhalt verwendet wird. Das setzt Verantwortung und Wissen voraus. Denn die KI ist ja nur ein Werkzeug.

Und das kann nicht entscheiden, ob es etwas falsch macht oder ob die Micky Maus, die sie "zeichnet", rechtlich geschützt ist und deshalb nicht verwendet werden darf. Dasselbe gilt für personenbezogene Daten und deren Richtigkeit und Rechtmäßigkeit. Man würde auch seinen Hund nicht ernsthaft um Rat fragen, ob man die Beute, die er bringt, behalten darf.

Zweckänderung als Risiko

Ein besonderes Risiko besteht darin, dass KI-Systeme mit allgemeinem Verwendungszweck auch für hochriskante Zwecke verwendet werden können, obwohl sie selbst nicht hochriskant sind. Die KI-Verordnung (KI-VO), die seit August in Kraft ist und deren erste Pflichten im Februar 2025 gelten, gibt unter anderem vor, wann die Verwendung von KI verboten ist. Sie regelt auch, wann die Nutzung zwar erlaubt, aber an strenge und besondere Anforderungen geknüpft ist.

Die Verantwortung für den zweckwidrigen Einsatz von GPAI wie ChatGPT ist rechtlich noch nicht geklärt. Aber: Es spricht einiges dafür, dass man als Betreiber, sprich als die Person, die KI-Systeme mit allgemeinem Verwendungszweck nutzt, die Verantwortung für den Einsatz zu hochriskanten Zwecken übernehmen muss. Schließlich hat man sich ja für den Einsatz zu einem besonderen Zweck entschieden, ohne dass der Anbieter von ChatGPT das will oder weiß.

"Hundeführerschein" und "KI-Führerschein"

Deshalb muss man sich dringend absichern, wenn es um den Einsatz von GPAI geht. Man muss lernen, wann man in hochriskante oder gar verbotene Zonen kommt. Das ist nicht ungewöhnlich.

Auch als Tierhalter muss man je nach Risiko einen "Tierführerschein" machen, um seine Eignung für den Umgang mit dem autonomen und potenziell gefährlichen Wesen nachzuweisen.

KI-Kompetenz: Rechtspflicht und Schutzkonzept

Das Konzept der KI-VO zur Schaffung der Verantwortung in der Wirtschaft besteht deshalb unter anderem darin, ab Februar 2025 jeden, der KI-Systeme zu nicht privaten Zwecken verwendet, KI-kompetent zu machen und so Risiken kalkulierbar zu machen.

So schließt sich der Kreis. Nur mit KI-Kompetenz kann man von Beschäftigten verlangen, dass sie die vielen Fälle, in denen die Verwendung der KI ohne nennenswerte Einschränkungen nach der KI-VO erlaubt ist, erkennen.

JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.