Cyberama: Verantwortungslos
Kürzlich gab es den ersten tödlichen Unfall mit einem selbstfahrenden Auto. In den USA starb der Insasse eines Tesla, weil der Autopilot die Seitenwand eines LKW nicht richtig erkannt hatte. Die erwartbare Reaktion der Öffentlichkeit: Autonome Fahrzeuge seien wohl doch nicht so sicher, wie immer behauptet werde. Dabei messen wir mit zweierlei Maß. Unfälle mit menschlichen Fahrern halten wir zwar für bedauerlich, aber für weitgehend normal. Von einem autonomen Auto hingegen erwarten wir, dass es fehlerfrei funktioniert. Das ist natürlich in gewisser Weise ungerecht. Tatsächlich sind Autopiloten wesentlich bessere Fahrer als die Menschen. Sie werden nicht müde, lassen sich nicht ablenken und betrinken sich auch nicht. Dennoch stellen uns autonome Autos vor ein vertracktes Problem.
Menschliche Fahrer müssen für ihre Fehler die Verantwortung übernehmen, autonome Autos hingegen nicht.
Bei menschlichen Fahrern gehen wir davon aus, dass sie - im Rahmen der Straßenverkehrsregeln - situationsangemessen reagieren. Ein autonomes Auto hingegen muss man von vornherein so programmieren, dass es in jedem Fall die richtige Entscheidung trifft. Die Schwierigkeit daran ist, dass es unmöglich ist, im Vorhinein jeden Aspekt einer möglichen Situation zu berücksichtigen. Das können menschliche Fahrer auch nicht, daher machen sie Fehler. Aber es gibt einen entscheidenden Unterschied. Menschliche Fahrer müssen für ihre Fehler die Verantwortung übernehmen, autonome Autos hingegen nicht. Wenn ich einen Unfall verursache, dann bin ich eben selbst daran schuld. Wenn ein selbstfahrendes Auto jemanden überfährt, dann kann es allenfalls sagen (sofern es sprechen kann): "Man hat mich falsch programmiert.“ Ich hingegen würde mich schon schuldig fühlen, wenn mein autonomes Auto einen Unfall baut, obwohl ich gar nichts dafür kann. Wie denken Sie über selbstfahrende Autos? Bitte schreiben Sie mir unter [email protected]