Entgeltliche Kooperation

„Technologie ist weder gut noch böse“

Sie werden als Zukunft der Intelligenz bezeichnet, doch wo stehen Machine-Learning-Systeme und was können sie leisten?

Drucken

Schriftgröße

Univ.-Prof. Dipl.-Inform. Dr. Claudia Plant

Claudia Plant von der Research Group Data Mining and Machine Learning an der Universität Wien erklärt, wie klug künstliche Intelligenz (KI) tatsächlich ist.

Was steckt hinter der künstlichen Intelligenz? 

KI beruht auf Algorithmen, die man sich wie ein Kochrezept vorstellen kann. Es ist eine Folge von Anweisungen, die wir Menschen spezifizieren und die die Maschine abarbeiten muss. Machine Learning besteht aus einem tiefen neuronalen Netzwerk, sprich: Es ist auf sogenannten Neuronen aufgebaut. Das sind einfache Einheiten, die nach einer vorgegebenen Vorschrift eine Eingabe zu einer Ausgabe umrechnen können. Schaltet man sehr viele dieser Einheiten hintereinander, kann man komplexe Inhalte beliebig genau approximieren. Zwar bestehen große Systeme aus vielen Bestandteilen, aber jedes einzelne davon können wir erfassen und verstehen. Daher sind Ängste vor diesen Technologien unbegründet – sie haben kein Eigenleben oder eigenes Bewusstsein. Das heißt aber auch nicht, dass diese Systeme dumm sind. 

 

Wie lernen diese Systeme? 

Sie werden mit großen Mengen von Daten trainiert. Aus diesen bauen sie Modelle und sind dann in der Lage, neue Inhalte zu generieren, indem sie häufig vorkommende Muster in den Daten ausnutzen. Systeme wie ChatGPT können etwa Texte schreiben, weil bestimmte Sätze, Phrasen und Wortfolgen immer wieder miteinander vorkommen. Die Maschine kombiniert diese zu neuen Inhalten. Sie kann nur das anbieten, worauf sie trainiert wurde. Menschen lernen stetig weiter. 

 

Wie sieht das bei KI aus? 

Es ist fast schon eine philosophische Frage, ob diese Maschinen neue Inhalte produzieren oder nicht. Sie haben ein Modell von der Welt, welches sie aus den Trainingsdaten erlernt haben. Innerhalb dieses Wissens können sie neue Inhalte generieren und bestehende Inhalte kombinieren. Das ist eine gewisse Neubildung, allerdings nur sehr begrenzt.

Menschen sind flexibel und können sich gut auf neue Situationen einstellen. Diese Maschinen stecken da noch in den Kinderschuhen und können nur die Aufgaben erfüllen, auf die sie trainiert worden sind. 

Claudia Plant

Universität Wien

 Können daraus Probleme resultieren? 

Die Textkorpora, auf denen sie trainiert sind, sind ein Spiegelbild unserer Gesellschaft, die nicht unbedingt ausgeglichen ist – etwa auf Genderbalance. Somit geben auch die Texte kein differenziertes Bild ab. Ein Beispiel: Befragt man ein solches System nach einer Bewertung der Leistungen des Doktoranden Samuel, dann ist dieser ein innovativer Forscher. Die Doktorandin Anna hingegen ist sehr belesen, aber wenig kreativ. In der Forschung gibt es Ansätze, wie man den Systemen ethische und demokratische Werte mitgeben kann. Natürlich ist das machbar, aber es ist die Frage, welche Interessen unsere Gesellschaft hat. In der Regel werden diese Systeme von kommerziellen Unternehmen hergestellt, und es ist nicht transparent, auf welchen Daten und mit welchen Methoden sie trainiert worden sind. Deswegen sage ich, wir müssen als Gesellschaft Geld dafür ausgeben, um diese Techniken mit europäischen Werten weiterzuentwickeln. Manche der Begründer*innen des Deep Learnings, etwa Yoshua Bengio, haben eine kritische Meinung, weil sie die Gefahren der Technologie sehen. Ich aber bin der Meinung, dass eine Technologie neutral ist – sie selbst ist weder gut noch böse. Wir Menschen müssen durch Regulierung sicherstellen, dass sie zum Wohl des Menschen eingesetzt wird. 

 

Gibt es diesbezüglich Bemühungen? 

Der European AI Act ist ein erster Versuch. Ich finde es sehr gut, dass die EU hier Vorreiter ist, diese technologischen Entwicklungen rechtlich zu begleiten und zu regulieren. Das ist die richtige Möglichkeit, damit umzugehen. Wir dürfen nicht vergessen, dass diese Systeme Fortschritt bedeuten – etwa in der Medizin. Bei der Interpretation medizinischer Bilder gibt es etwa viele Schritte, die Expert*innen machen. Das benötigt viel Zeit von hochqualifizierten Menschen. Diese Vorarbeit kann von KI übernommen werden, wodurch sich Radiolog*innen auf die wichtigen Dinge ihrer Tätigkeit konzentrieren können. Das ist eine große Entlastung, vor allem in Hinblick darauf, dass wir durch den demografischen Wandel weniger Menschen auf dem Arbeitsmarkt haben. Durch KI können auch interessante Arbeitsplätze geschaffen werden, weil sie wiederkehrende Routinetätigkeiten übernehmen. Es gibt so viele Herausforderungen unserer Zeit, etwa ungelöste Probleme des Klimawandels, auf die sich die Menschen dann fokussieren können. Wenn KI das unterstützt, finde ich es eine gute Sache.