Cyberama von Thomas Vasek: Paradox des Vertrauens
Zwischen Maschinen und Menschen besteht ein wesentlicher Unterschied. Das Verhalten von Maschinen lässt sich bis zu einem gewissen Grad vorausberechnen, das Verhalten von Menschen nicht. So gesehen wäre es oft besser, wir würden uns der Technik anvertrauen. Das heißt nicht, dass Maschinen keine Fehler machen. Doch sie können nicht vorsätzlich handeln. Wenn etwas schiefläuft, lässt sich wenigstens die Ursache feststellen. Bei Menschen ist das nicht so einfach, wie der Fall Germanwings zeigt. Warum also nicht in sensiblen Bereichen auf autonome technische Systeme umsteigen? Die Technologien sind als Prototypen vorhanden, die ersten völlig autonomen Autos und Züge fahren bereits. Solche autonomen Systeme könnten die Sicherheit wesentlich erhöhen. Dennoch empfinden viele ein gewisses Unbehagen dabei, sich allein der Technik und Computeralgorithmen auszuliefern. In der Regel wollen wir, dass der Mensch die allerletzte Kontrolle hat. Der Grund liegt darin, so vermute ich, dass es schlicht kein "Vertrauen" in Maschinen gibt. So paradox es klingt: Jedes Vertrauen setzt die Freiheit des anderen voraus, dieses Vertrauen zu missbrauchen. Maschinen und Computerprogramme können uns nicht verraten. Sie können nur nicht richtig funktionieren. Wer von seinem Navigationssystem in die Irre geführt wird, der kann in der Regel niemanden moralisch anklagen. Etwas ganz anderes ist es, wenn uns eine vertraute Person absichtlich den falschen Weg weist. Sicherlich arbeiten Computerprogramme heute oft zuverlässiger als Menschen. In vielen Situationen können wir uns auf sie "verlassen". Doch "vertrauen" können wir nur Menschen, obwohl wir niemals mit letzter Sicherheit wissen, ob sie dieses Vertrauen verdienen. Wie denken Sie darüber? Bitte schreiben Sie mir unter