Moral Machine

Wen soll ein autonomes Auto im Notfall töten?

Hans-Christian Dirscherl ist Redakteur der PC-Welt.
Machen Sie den Online-Test und entscheiden Sie: Wen soll ein autonomes Auto im Notfall töten? Kinder gegen Erwachsene, Kriminelle gegen Ärzte, Tiere gegen Menschen.
Makabrer Selbst-Test: Sie entscheiden über Leben und Tod
Makabrer Selbst-Test: Sie entscheiden über Leben und Tod
Foto: http://moralmachine.mit.edu/

Es ist ein sehr makabrer Test, den das renommierte Forschungsinstitut MIT mit seiner Moral Machine online gestellt hat. Denn hier müssen Sie in 13 konkreten Unfallszenarien entscheiden, wer sterben muss und wer überleben darf.

Entscheiden Sie mit Hilfe der Moral Machine, wer in Unfallszenarien sterben muss und wer überleben darf

Dabei müssen Sie abwägen, welche Leben Ihnen wichtiger erscheinen: Das von fünf Senioren im Auto oder das Leben einen einzelnen Kindes auf dem Zebrastreifen. Abhängig von Ihrer Entscheidung kracht das Auto in das feste Hindernis: Die fünf älteren Insassen sterben, das Kind überlebt. Oder aber Sie lassen das Auto das Kind überfahren, dann überleben die Senioren.

Das ist nur einer von 13 Fällen, in denen Sie über Leben und Tod entscheiden. In anderen Fällen müssen Sie abwägen, ob das Auto einige Verbrecher oder einige Ärzte überfahren soll. In einem besonders krassen Fall stehen sogar die Leben einiger Tiere gegen das von Menschen.

Selbstfahrende Autos müssen Entscheidungen treffen

Die Moral Machine hat einen ernsten Hintergrund: Die Entwicklung von selbstfahrenden, also autonomen Autos. Denn wenn ein Auto ohne menschliche Eingriffe fährt, dann muss in einer Notsituation der Computer entscheiden, wohin das Fahrzeug steuern soll. Soll das selbstfahrende Auto dann also sich aufopfernd selbst gegen eine Hauswand steuern – und dabei den Fahrer, der als einziger im Auto sitzt, töten – wenn nur dadurch verhindert werden kann, dass das Auto ein Kind überfährt, das unaufmerksam vor das Auto auf die Straße läuft? Bei autonomen Autos müssen solche und ähnliche Szenarien und Abwägungen im Programmiercode berücksichtigt werden. Rund um den Globus diskutieren Ethikkommissionen dieses Problem. Das dürfte in nächster Zeit noch für einige Unruhe unter den Autofahrern sorgen. Denn wer kauft sich schon ein Auto, das im Zweifelsfall den Fahrer opfert, um einen anderen Menschen zu retten…

Entscheiden Sie mit Hilfe der Moral Machine, wer in Unfallszenarien sterben muss und wer überleben darf

Zur Startseite