Der Einsatz von moderner Technologie war (sinnvollerweise) schon immer umstritten und viel diskutiert. Der Abwurf der Atombombe und der Einsatz von Atomreaktoren ist eine Entscheidung von Menschen gewesen. Diese haben zuvor abwägen müssen, ob der Einsatz gerechtfertigt ist, also ob Risiken/Schäden und Ziele im angemessenen Verhältnis zueinander stehen (Güterabwägung). Dies wird auch in Zukunft so sein.
Moderne Technologien (insbesondere künstliche Intelligenz und Robotik) erfordern eine Erweiterung dieses Konzeptes.
Stellen wir uns ein selbstfahrendes Auto vor, dann kann ein solches Auto (zumindest seine Steuerung) aber auf einmal auch eine solche Güterabwägung machen müssen.
Ein solches Auto erkennt Gefahrensituationen . Ein entgegenkommendes Fahrzeug, das in die eigene Fahrspur hineinfährt, ist eine Gefahr. Wenn das Ausweichen aber nun bedeutet, einen gerade überholten Fahrradfahrer zu gefährden, wird einer der beiden naheliegenden Schadensfälle eintreten. (In diesem Gedankenexperiment gibt es keine dritte Möglichkeit!)
Jetzt muss das „Auto selbst“, also das Steuerungsprogramm, eine Güterabwägung vornehmen. Das ist die wesentliche neue Qualität der Güterabwägung, die der Einsatz neuer Technologien erfordert. Es bleiben die gleichen Fälle zu entscheiden, die Entscheidungen werden aber zukünftig auch von Maschinen vorgenommen. Es sind – erstmal – nur die Alltagssituationen, aber es sind technische Systeme denen wir eine Güterabwägung übertragen werden.
Der vermeintliche „Vorteil“ ist dabei, dass diese Güterabwägung vorab und ganz bewusst und explizit gemacht werden muss, da sie dem System vor Inbetriebnahme mitgeteilt (programmiert) werden muss.
So, aber jetzt erstmal raus aus den Betten und das 5. Türchen öffnen!
PS: Stiefel putzen und rausstellen nicht vergessen…
Nachtrag für Literaturinteressierte
Am obigen Thema wird deutlich, dass die Asimovschen Robotergesetze nicht ausreichend sind:
- Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
- Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
- Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.
Gut, sie stammen aus der Veröffentlichung Ich, der Robot von Isaac Asimov, 1950. Damals war es zunächst einmal Science Fiction und es stellte den Stand der (vorstellbaren) Technik dar.
