Der Code hinter der Entscheidung

In einer Studie zeigten Wissenschaftler der Universität Osnabrück, dass Maschinen lernen können, sich korrekt zu entscheiden.

Seit der Erfindung des Automobils wurden Fortschritte allein von technischen und physikalischen Parametern bestimmt. Ethische und moralische Maßstäbe spielten, wenn überhaupt, nur eine Nebenrolle. Das ändert sich jetzt mit der Entwicklung des Autonomen Fahrens. Während die Techniker in erster Linie bereits vorhandene Sensoren und Assistenzsysteme bündeln und Daten sammeln, damit die Fahrzeuge in Zukunft wie von Geisterhand gesteuert unfallfrei durch den Verkehr navigieren, entstehen gleichzeitig moralische und ethische Grundsatzfragen, die vor einem massenhaften Einsatz dieser neuen Technologie geklärt werden müssen.

Der Mensch hinter dem Lenkrad greift in kritischen Situationen auf sein moralisch-ethisches Bewusstsein zurück, wenn er Entscheidungen treffen muss, bei denen unter Umständen Menschen verletzt werden, um noch schlimmere Konsequenzen zu vermeiden. Das Automobil als seelenlose Maschine kennt diese Grundsätze nicht. Allerdings hat jetzt eine Untersuchung am Institut für Kognitionswissenschaften der Universität Osnabrück gezeigt, dass sich menschliche Moral so modellieren lässt, dass Maschinen durchaus moralisch-ethische Entscheidungen treffen können.

Für die Studie reagierten 105 mit VR-Brillen ausgerüstete Menschen auf konkrete Verkehrssituationen in einem nebligen Vorstadt-Umfeld. Dabei gerieten sie in sogenannte Dilemma-Situation mit Gegenständen wie Strohballen, Tieren und Menschen. Sie mussten entscheiden, was oder wer von einer Kollision verschont werden sollte. Die Teilnehmer waren während ihrer virtuellen Fahrt einmal mit 36 km/h und danach mit 72 km/h unterwegs. „Wir hatten in einer bestimmten Entfernung eine Nebelwand simuliert, um so zu ermitteln, ab welcher Distanz die Versuchsteilnehmer die Hindernisse erkannten“, erklärt der Autor der Studie Leon Sütfeld. „Die Reaktionen waren so ausgeglichen, dass wir eine relativ genaue Vorhersage des Verhaltens treffen konnten.“ Das Durchschnittsalter der Probanden lag bei 31 Jahren.

Die Untersuchung ergab, dass die Probanden eine hohe Übereinstimmung bei den moralischen Entscheidungen teilten.

„Moralische Entscheidungen basieren nicht auf Logik, sondern auf menschlicher Intuition und einer komplexen Abwägung verschiedenster Gesichtspunkte. Deshalb haben wir uns konkret auf die Dilemma-Situation konzentriert, um zu beobachten, wie sich Menschen verhalten. So konnten wir herausfinden, wie präzise wir ihre Reaktion vorhersagen oder modellieren können, um später den Autos die Möglichkeit zu geben, ähnliche Entscheidungen zu treffen.“ Die Untersuchung ergab, dass die Probanden eine hohe Übereinstimmung bei den moralischen Entscheidungen teilten, sodass „wir mit einem einzigen Modell die Entscheidung sehr vieler Leute recht gut vorhersagen können.“

In einem zweiten Schritt wurde ein Rechner mit den Ergebnissen der Untersuchung geladen, wobei der Maschine zehn Prozent der Ergebnisse vorenthalten wurden. „Wir haben den Rechner zunächst im Rahmen der Cross Validation oder Kreuzvalidierungsverfahren auf 90 Prozent der Daten trainiert und verwendeten dann die restlichen unbekannten zehn Prozent, um so die Genauigkeit der Vorhersage zu registrieren.“ Dabei erhält der Rechner zehnmal den 90-prozentigen Datensatz, wobei „immer ungefähr die gleiche Reaktion herauskommt“, so Sütfeld. Wenn der Rechner den tatsächlichen Ausgang kennt und feststellt, dass er einen Fehler gemacht hat, korrigiert er die Parameter entsprechend und „lernt“ so nach und nach die korrekte Entscheidung.

Wenn der Rechner den tatsächlichen Ausgang kennt und feststellt, dass er einen Fehler gemacht hat, korrigiert er die Parameter entsprechend und „lernt“ so nach und nach die korrekte Entscheidung.

 

Die von Bundesverkehrsminister Alexander Dobrindt eingesetzte Ethik-Kommission zum automatisierten Fahren hat im Juni ihren Abschlussbericht vorgelegt. Darin heißt es, dass die „Technik so ausgelegt sein muss, dass kritische Situationen gar nicht erst entstehen. Dazu gehören auch Dilemma-Situationen, also eine Lage, in der ein automatisiertes Fahrzeug vor der Entscheidung steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen.“ Außerdem stellen die Experten fest: „Technische Systeme … müssen auf Unfallvermeidung ausgelegt werden, sind aber auf eine komplexe oder intuitive Unfallfolgenabschätzung nicht so normierbar, dass sie eine Entscheidung eines sittlich urteilsfähigen, verantwortlichen Fahrzeugführers ersetzen oder vorwegnehmen können.“

Verwendung von Cookies

Um die Webseite optimal gestalten und fortlaufend verbessern zu können, verwendet Daimler Cookies. Durch die weitere Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu.