KI-Experte Trappl: „Ironie ist sehr schwierig“
Robert Trappl, ein Wegbereiter der künstlichen Intelligenz, findet ChatGPT toll, sieht schwere Zeiten auf Autoren zukommen, bezweifelt den Sinn von Verboten neuer Technologien – und nennt ein Kernproblem moderner KI: Wir verstehen nicht, wie ihre Entscheidungen zustande kommen.
Wie gefällt Ihnen ChatGPT?
Trappl
Ich finde es toll. Konkurrenten wie Google müssen nun sehen, wie sie Schritt halten. Man muss schon sagen, es ist eine wirklich beeindruckende Entwicklung.
Warum eigentlich?
Trappl
Weil es so vielseitig ist. Die Entwickler von OpenAI haben offenbar 360 Milliarden Worte gespeichert. Sie haben eine riesige Wissensbasis erzeugt, ein Modell von Bedeutungszusammenhängen, das Ergebnisse nicht nur mit Wahrscheinlichkeiten generiert. Die Menschen müssen es dann trainieren, passende Antworten zu äußern.
Aber es arbeitet doch mit statistischen Modellen und errechnet, welche Wortbausteine am wahrscheinlichsten zu einer Frage passen?
Trappl
Natürlich auch, aber nicht nur. Es hat eben eine Wissensbasis. Sonst würde es zu viel Blödsinn produzieren.
Produziert ChatGPT nicht viele falsche Ergebnisse?
Trappl
Natürlich ist es längst nicht vollständig, es gibt sicher große Lücken. Es könnte zum Beispiel in den abgespeicherten Sätzen Ironie oder ein Witz stecken, dann würde das System vielleicht Fehlinterpretationen liefern. Aber wenn so ein Programm in der Lage ist, bei einer Rechtsanwaltsprüfung in den USA zu bestehen, muss es über sehr viel Wissen verfügen.
Das hat es geschafft?
Trappl
Ja. Es hat nicht alle Fragen richtig beantwortet, aber so viele, dass es bestanden hätte.
Wenn es darum ging, medizinische Fachartikel zu verfassen, hat es oft versagt.
Trappl
Ja, aber Spezialwissen kann das Programm nicht auf allen Gebieten besitzen. Bei der Medizin sind viele Fachartikel außerdem nicht frei zugänglich, und zum Verständnis sind Abbildungen erforderlich.
Wäre die Wissensbasis noch viel größer, wäre GPT perfekt?
Trappl
Perfekt nicht, aber es käme in die Nähe.
Mit Ironie käme so ein Programm aber nicht zurecht?
Trappl
Angeblich hat es Probleme damit. Aber das ist auch eine sehr schwierige Herausforderung. Wir haben selber einen Spezialisten am Institut, der sich mit Humor beschäftigt. Seine Frage ist, wie eine Maschine verstehen kann, ob eine Äußerung Humor enthält
Und funktioniert das?
Trappl
In gewissen Bereichen ja. Unser Spezialist Tristan Miller arbeitet seit Jahren daran. Ihn interessiert das Thema als Sprachwissenschafter.
Robert Trappl
zählt zu den internationalen Pionieren auf dem Gebiet künstlicher Intelligenz. 1969 war Trappl an der Gründung der Österreichischen Studiengesellschaft für Kybernetik beteiligt, er selber rief das Österreichische Forschungsinstitut für Artificial Intelligence (OFAI) mit rund 30 Forschenden ins Leben, das er bis heute leitet. Außerdem nimmt er, als Professor längst emeritiert, im Moment vier Lehraufträge an drei Universitäten wahr.
Wofür kann man ChatGPT in Zukunft sinnvoll einsetzen? Man kann die Hausübung fälschen, aber das wird kaum die Hauptanwendung sein.
Trappl
Die Frage ist vor allem, wem schadet man damit. So ein Programm macht in der Weiterentwicklung sehr viele Texte überflüssig …
… unsere zum Beispiel.
Trappl
Ja. Ich denke auch an Gerichtsprozesse, wo ein Urteil auf 250 Seiten formuliert wird. Ich wäre schon gespannt, was in dem Bereich mit einem weiterentwickelten ChatGPT gemacht werden könnte. Ich denke auch an Anklageschriften oder Verteidigerstellungnahmen, ebenso an Fachartikel. Manche wissenschaftliche Autoren haben ChatGPT schon als Koautor dazugeschrieben. Die Verlage haben das aber nicht akzeptiert, weil es sich nicht um eine Person handelt.
Und weil ein Programm keine Verantwortung übernehmen kann.
Trappl
Das kommt noch dazu.
Noch kritischer wäre das bei einem Gerichtsurteil. Wer trägt die Verantwortung für die Formulierungen einer KI?
Trappl
Ja, aber man kann auch zuerst einen langen, sehr mühsamen und zeitaufwendigen Text schreiben lassen und anschließend kontrollieren und korrigieren. Wir haben schon vor vielen Jahren Wetternachrichten automatisiert. Wir haben in einem europäischen Projekt Programme für Arztbriefe und Rentenbescheide entwickelt. Da werden ja viele Stehsätze und Bausteine verwendet.
Ein literarischer Text ist etwas anderes. Erkennt der Leser nicht den Unterschied?
Trappl
Es ist sicher nicht so schwierig, die literarische Struktur von Büchern in so ein Programm zu integrieren.
Der Literat schafft doch in gewisser Weise Neues. Stellt nicht so ein System bloß ein Zusammenpuzzeln von bereits Existierendem dar?
Trappl
Autoren haben im Prinzip zwei Vorgangsweisen. Die einen haben eine genaue Beschreibung des Plots und der Figuren und bauen nach üblichen dramaturgischen Gesetzen eine Geschichte. Man kann dem Programm womöglich auch sagen, schreibe das wie Hemingway oder orientiere dich an einem deutschen Philosophen aus dem späten 18. Jahrhundert. Andere Autoren überraschen sich beim Schreiben selber, das gibt es auch bei Komponisten. Dann ist es für ein Programm sicher eine Herausforderung.
Und die Frage ist, wollen wir so etwas überhaupt?
Trappl
Soll man es verbieten? Das halte ich für schwierig. Soll man eine Grenze einziehen und zum Beispiel sagen, nur Menschen dürfen Romane schreiben oder komponieren? Ich traue mich das nicht zu beantworten. Es ist aber eigentlich in der Geschichte nie auf Dauer gelungen, zu sagen, ab hier darf es nicht weitergehen. Nur Religionen haben das.
Geschlossene Systeme, die per se immun gegen Innovation sind.
Trappl
Eben. Aber vielleicht will AI-Literatur ohnehin niemand lesen.
Oder es gilt künftig als spezielles Qualitätsmerkmal, wenn ein Buch vom Menschen geschrieben ist.
Trappl
Oder man will wissen, was denn dieses irre Schreibprogramm von OpenAI nun wieder Neues veröffentlicht hat.
In jedem Fall wird die Entwicklung nicht stehen bleiben.
Trappl
Ich glaube nicht. Es wird sicher auch besser werden, ich weiß aber nicht, ob es Grenzen gibt. Da nennt man oft Kreativität, Spontaneität oder menschliches Erfahrungswissen.
Manche KI-Systeme sind so fortgeschritten, dass sie eigenständig lernen und Entscheidungen treffen. Können sie uns entgleiten?
Trappl
Das ist das Problem der Explainability. Mit dem Aufkommen von Deep Learning kann man immer weniger erklären, wie ein Programm zu seinen Ergebnissen kommt und warum manche Resultate falsch sind und andere nicht. Wenn es Hunderttausende Neurone mit Millionen Verbindungen auf 20 Ebenen gibt, kann man nicht mehr sagen, was der Grund für ein bestimmtes Ergebnis ist.
Dann wüsste man nicht, wie eine KI zu einer medizinischen Diagnose gelangt oder über die Kreditwürdigkeit einer Person entscheidet? Und ob es dabei schwere Fehler begeht?
Trappl
Es ist sicher toll, wie oft diese Programme richtig liegen. In welchen Einzelfällen sie aber völlig falschliegen, weiß man eben nicht. Und schon gar nicht, warum.
Bei einer Krebsdiagnose keine gute Aussicht.
Trappl
Es ist noch unverantwortlich, sie für so etwas ohne menschliche Kontrolle einzusetzen. Es ist zu wenig, dass sie fast immer toll und super sind, aber in seltenen Fällen total falschliegen.