Kommentar |
Autonome Systeme sind etwas grundsätzlich Neues. Im Wesenskern meint man mit „autonomen Systemen“ technische Errungenschaften, die unabhängig vom Menschen bestimmte Entscheidungen treffen können. Dabei kann es sich um Software/Programme (beispielsweise sogenannte Autonomous Trading Agents an Börsen), aber auch um mit der Umgebung interagierende, physische Systeme wie Roboter oder selbstfahrende Fahrzeuge handeln. Autonome Systeme sind dabei nicht nur etwas grundlegend Neues, sondern sie gewinnen auch zunehmend an Einfluss in unserer Welt.
Aus philosophischer Sicht stellen sich in Bezug auf autonome Systeme viele interessante Fragen. In diesem Seminar beschränken wir uns auf Fragen der Moral. Zwei Themengebiete können dabei unterschieden werden:
1. Zum einen kann man kann man danach fragen, inwiefern das Handeln der Systeme moralisch geleitet/beschränkt werden kann und soll: Sind autonome Systeme moralische Akteure/Subjekte mit moralischen Pflichten? Oder sollen sie schlicht moralischen Beschränkungen unterliegen? Wenn ja, welchen? Und welchen normativen Theorien sollen sie gehorchen – und wieso? Wie könnte man moralische Beschränkungen und Regeln eigentlich programmieren respektive implementieren?
Mit diesen und ähnlichen Fragen beschäftigt sich die sogenannte Maschinenethik. Es geht also darum, wie solche Systeme handeln sollten und wie wir dies erreichen.
2. Zum anderen kann man sich fragen, ob hinreichend unabhängige/autonome Systeme moralische Rechte haben oder haben sollten. Tun wir etwas Falsches, wenn wir einen Roboter mit bestimmten Eigenschaften abschalten? Sollen wir Absichten und Wünsche autonomer Systeme berücksichtigen? Wenn ja, sollten wir diese als gleichwertig zu unseren behandeln? Hängt das vom Grad der Autonomie, Denkfähigkeit, vielleicht sogar Empfindungsfähigkeit der Systeme ab? Wenn ja, was ist, wenn sie uns Menschen in einem oder mehreren dieser Aspekte übertrumpfen?
Mit Fragen dieser Art, die darauf zielen, wie wir autonome Systeme behandeln sollen beziehungsweise was wir solchen Systemen unter welchen Bedingungen schuldig sind, beschäftigt sich die sogenannte Roboterethik.
Beide Themenbereiche haben also gemein, dass sie sich mit einer möglichen Ausweitung der Moral auf Roboter/autonome Systeme beschäftigen: einmal als Adressaten und einmal als Objekte der Moral.
Aufgrund der Vielfalt der behandelten Themen, wendet sich das Seminar in erster Linie an fortgeschrittene Studierende. Es werden metaethische Themen, Fragen der normativen Ethik und Aspekte der angewandten Ethik behandelt werden.
Da es sich bei beiden Disziplinen um sehr junge Disziplinen handelt, hat sich noch kein Kanon an „must reads“ herausgebildet. Wir werden zum Teil Ausschnitte aus den bisher erschienen Einführungsbüchern zu den Themen anschauen, aber auch einige Paper aus einschlägigen Fachzeitschriften gemeinsam bearbeiten. Des Weiteren werden wir uns zu Beginn auch mit einigen Zeitungs- und Blog-Artikeln beschäftigen, die Fragen eher aus einer gesellschaftlichen als einer philosophischen Perspektive betrachten.
Material:
- Das zentrale Buch im Bereich der Maschinenethik: Wallach, W. and Allen, C.: Moral Machines: Teaching Robots Right from Wrong, Oxford University Press 2010.
- Zur Robotherethik: Gunkel, D.: Machine Question, MIT University Press 2012.
- Zur Robotherethik: Lin, P. et al: Robot Ethics (Intelligent Robotics and Autonomous Agents), MIT University Press 2014.
- Zur Einstimmung in die Maschinen-Ethik:https://en.wikipedia.org/wiki/Machine_ethics;
- http://www.nature.com/news/machine-ethics-the-robot-s-dilemma-1.17881
- Zur Einstimmung in die Roboterethik:
- https://de.wikipedia.org/wiki/Roboterethik;https://en.wikipedia.org/wiki/Roboethics;
- http://www.roboethics.org/atelier2006/docs/ROBOETHICS%20ROADMAP%20Rel2.1.1.pdf
|