Entgeltliche Kooperation

Nachhilfestunden für KI

Machine Learning ist aktuell in aller Munde. Dabei werden Systeme entwickelt, die aus Daten und Erfahrung lernen und sich dadurch verbessern. Klingt ideal – aber es gibt viele offene Fragen, mit denen sich Stefan Woltran, Universitätsprofessor an der TU Wien und Leiter des Center for Artificial Intelligence and Machine Learning (CAIML), auseinandersetzt.

Drucken

Schriftgröße

Künstliche Intelligenz (KI) gilt als eine der wichtigsten technologischen Errungenschaften. Ist sie das?
Stefan Woltran: Die KI wird in mehrere Bereiche geteilt. Ich komme aus der sogenannten Symbolischen KI, die schon lange angewandt wird. Das sind Systeme, auf denen etwa Routenplaner basieren oder eine Software, die Fahrpläne optimiert. Sie arbeiten mit regelbasierten Algorithmen. Dadurch liefern sie richtige Ergebnisse – so wie ein Taschenrechner, der die richtige Summe ausspuckt. Was seit eineinhalb Jahren so gehypt wird, insbesondere seit Chatbots gut funktionieren, sind Systeme des Machine Learnings. Ihr Problem ist, dass sie nicht notwendigerweise korrekte Antworten liefern – das ist natürlich nicht unbedingt das, was man sich von einer Software erwartet. Da gibt es Handlungsbedarf: Diese Systeme müssen zuverlässiger werden – und es muss gewährleistet sein, dass sie sich ethisch korrekt verhalten.

Wie können sich KI-Systeme unethisch verhalten?
Systeme wie Chatbots werden durch Daten trainiert, die allerdings aus unserer „richtigen“ Welt stammen. Ein Beispiel: Im Internet finden sich mehr Fotos von hellhäutigen als von dunkelhäutigen Menschen, obwohl es weltweit mehr dunkelhäutige Menschen gibt. Nachdem diese Systeme mit diesen Daten trainiert werden, spiegeln sie solche Verzerrungen wider. Bei Chatbots trifft das noch stärker zu, weil sie über alle Texte, die so im Internet herumkugeln, trainiert werden. Das ist ein großes Problem und eine Schwäche dieser Modelle.

Und wie kann man ihnen dann Ethik vermitteln?
Überlegen Sie mal, wie wir Menschen es handhaben. Wenn wir Dinge betrachten, fließen unsere inneren Wertevorstellungen, politischen Intentionen oder Gerechtigkeitssinn ein. Auch in der Judikatur funktioniert es so: Formalisierte Gesetzestexte können auf das richtige Leben, das ja nicht nur schwarz-weiß, sondern durcheinander ist, angewandt werden. Beim Machine Learning wird man auch Regelwerke, Compliance Guidelines oder Gesetze benötigen, die vorgeben, wie ein KI-System ausgleichen können muss, was in den riesigen Datenmengen nicht abgebildet ist. Oder zumindest, dass das System weiß: „Achtung, ich muss auch die selteneren Sachen in Betracht ziehen.“ Wie eine Lösung aussehen könnte, wirft schwierige Forschungsfragen auf, und es gibt unterschiedliche Ansätze, wie man es machen kann. Aber den Heiligen Gral hat man noch nicht gefunden.

 

Univ.-Prof. Dipl.-Ing. Dr. techn. 
Stefan Woltran, TU Wien

Jetzt haben wir viele Probleme von KI-gestützten Systemen angesprochen. Was sind die größten Benefits für die Menschheit?
In der Medizin hat KI großes Potenzial. Vor allem die personalisierte oder Gendermedizin profitiert von dem Vergleich großer Datensätze. So können auch seltene Krankheiten erkannt werden. Die Letztentscheidung darf weder von der KI getroffen noch beeinflusst werden. Großes Potenzial sehe ich auch in der individuellen Lernförderung, auch wenn ich kein Pädagoge bin. Gerade die generative KI wie Chatbots kann bei Lerndefiziten unterstützen. Und was meiner Meinung nach viel zu wenig in Betracht gezogen wird, ist, wie KI den Partizipations- und Demokratieprozess vorantreiben kann. In zweierlei Hinsicht: Diese Systeme sind erstaunlich gut im Zusammenfassen von Texten. Sie könnten also Debatten so zusammenfassen, dass die Bürger*innen sich rasch und unaufwendig über Sachverhalte informieren und dann darüber abstimmen könnten. Andererseits könnte man bei innerbetrieblicher Mitbestimmung oder bei Grätzel-Partizipationsprozessen mit KI Wahlverfahren anwenden, die „Fairness over Time“ garantieren. Wenn also bei einem Projekt zehn Mal abgestimmt wird, kann auch die Minderheit die Zustimmung bekommen. Das sind nur drei positive Effekte, die KI mit sich bringt, man könnte noch viele Sachen einbringen.

Beschäftigt sich auch das Center for Artificial Intelligence and Machine Learning (CAIML) der TU Wien damit?
Wir, die wir symbolische KI anwenden, haben eine lange Tradition an der TU Wien. Die Expert*innen von Machine Learning sind über alle Fakultäten verstreut, weil sie es anwenden – sei es in der Materialwissenschaft, der Physik oder Architektur.  Das CAIML wurde von der TU Wien mit dem Ziel gegründet, die verschiedenen KI-Domänen und Expert*innen zusammenzubringen, damit sie sich über Fragen wie „Was macht KI mit der Wissenschaft, wenn die wissenschaftlichen Modelle nicht mehr so klar sind?“ oder „Was macht sie mit der Gesellschaft?“austauschen. Es ist kein reines Forschungszentrum, sondern primär geht es um Vernetzung, Austausch und das gemeinsame Nachdenken, was diese Systeme für Auswirkungen haben.