Zitat von QueFueMejorMein Vorschlag wäre zum Beispiel: Das Auto alarmiert den Fahrer, lässt nur noch manuelle Steuerung zu und überlässt die Entscheidung dem Fahrer. Das hat natürlich den Nachteil, dass der Fahrer wahrscheinlich im Schock gar nicht mehr rechtzeitig entscheiden kann. In meinen Augen ist das jedoch verschmerzbarer als einer Maschine komplexe Moral beizubringen zu versuchen, die sie einerseits vielleicht missversteht (Stichwort: Doppelbindungstheorie) und andererseits vielleicht auch gar nicht denen des Fahrzeughalters entspricht.
Und wann genau soll das Auto bei Brennpunkten von der Automatik zum manuellen Betrieb zurückkehren? Wenn die Reaktionszeit so bei 1 Sekunde liegt, versichert das auch, dass für jeden die Reaktionszeit ausreicht um eine Entscheidung zu treffen? Das sind dann auch Fragen, die bei deinem Beispiel geklärt werden müssten. Ich finde es besser, wenn es keine selbstfahrende Autos gibt. Bei Zügen gibt es bereits Selbstfahrende, aber die Unterschiede zwischen einem Zug und einem Auto sind gewatig. Ein Zug fährt nach einer Linie auf dem Schienen. Ein Auto muss sich aber immer auf neuen Strecken einstellen und es geht um Minimeterarbeit. Selbstfahrende Züge begrüße ich, aber keine selbstfahrende Autos. Ich weiß nicht, ob das doppelmoralisch ist.