Unbegründbarkeit von KI-Entscheidungen

KI-Systeme werden automatisiert durch so genanntes maschinelles Lernen trainiert. Dazu sind Trainingsdaten erforderlich, von denen man bei einer Menge von Eingabegrößen die erwünschten Ausgabegrößen bereits kennt. Diese erwünschten Ausgabegrößen können zum Beispiel extrahiert worden sein, indem menschliches Verhalten analysiert wurde, zum Beispiel beim Schachspielen, Autofahren oder bei Entscheidungen eines Sachbearbeiters einer Krankenkasse oder einer Richterin in einem Strafprozeß.

Beim automatisiertem Lernen werden nun die Gewichte des neuronalen Netzes sukzessive so lange justiert, bis die Trainingsdaten möglichst gut die vorgegebenen Ausgabedaten liefern. Nach abgeschlossenem Training hofft man nun, dass neue Eingabedaten, die also noch nicht in dem Trainingsdatensatz vorhanden waren, ebenfalls zu sinnvollen Ausgabegrößen führen. Allerdings gibt es für diese Hoffnung keinerlei Garantie. Es kann also durchaus sein, dass KI-Systeme falsche Entscheidungen treffen.

Das Problem ist nun, dass die Entscheidungen eines KI-Systems abhängig von einer sehr großen Anzahl an justierten Gewichten und Schwellenwerten sind. Es kann sich dabei durchaus um viele Millionen von Gewichten und Schwellenwerten handeln. Aufgrund dieser großen Anzahl ist der Prozess der Forward-Propagation durch das neuronale Netz zwar leicht berechenbar, aber für Menschen ganz grundsätzlich nicht mehr auf einer Verständnisebene nachvollziehbar. Damit lässt sich also auch die Frage, aufgrund welcher Tatsachen in den ursprünglichen Trainingsdaten das neuronale Netz zu dieser oder jener Entscheidung kommt, grundsätzlich nicht mehr beantworten.

Und auch das KI-System selbst kann seine Entscheidungen über die Begründung, dass seine Abermillionen von Gewichten und Schwellenwerte halt nun mal so und nicht anders justiert sind, nicht mehr weiter konkretisieren oder rechtfertigen.
Daraus ergeben sich eine Reihe von Prolemen und Dilemmata. Hier nur einige wenige Beispiele:

X

Fehler melden

X

Suche