Kommentar |
Die letzten Jahrzehnte wurden wahrscheinlich vom Großteil als positive Entwicklung, als Fortschritt wahrgenommen – trotz aller derzeitigen Krisen, Kriege und trotz bestehender sozialer Probleme. Aber wie geht es weiter? Geht es weiter wie bisher? Wenn ja: für immer? Oder kommt irgendwann eine globale Katastrophe auf uns zu? Wird sie selbstverschuldet sein?
- Vielleicht durch den anthropogenen Klimawandel?
- Oder durch eine dominante Superintelligenz, das Ergebnis der technologischen Singularität?
- Sind wir vielleicht einfach doch dumm genug, uns mit Atomwaffen selbst auszulöschen?
- Enden wir als Graue Schmiere, dank außer Kontrolle geratener Nanotechnologie?
Oder wird es Gründe haben, die außerhalb unseres Einflusses liegen?
- Rottet uns ein Meteoriteneinschlag aus?
- Oder ein Gammablitz?
- Vielleicht ein Supervulkanausbruch?
- Gar kriegerische Aliens?
Einige Philosophen und Zukunftsforscher beschäftigen sich mit solchen Fragen. Sie erörtern, wie wahrscheinlich die Szenarien sind, und vor allem auch, wie man angesichts dieser Ergebnisse reagieren sollte. Manche, wie Nick Bostrom, plädieren dafür, die Minimierung der Wahrscheinlichkeiten einer globalen Katastrophe zur obersten Priorität der internationalen Politik zu machen. Andere halten die ganze Debatte für unnütz und für übertriebene Panikmache. Wieder andere, die Transhumanisten (allen voran die Extropianer), propagieren die Weiterentwicklung des Menschen durch medizinische, pharmazeutische und vor allem technische Mittel in Form von human enhancement. Sie wollen, dass wir das Menschsein überwinden, die Evolution beschleunigen und so zu einer neuen, unsterblichen Spezies werden.
Wir werden uns im Kurs mit einigen Theorien über die Zukunft der Menschheit beschäftigen, allen voran mit der in den letzten Jahren zunehmend diskutierten Bedrohung durch die technologische Singularität. Dabei werden wir uns auch die Ideen der Transhumanisten vornehmen und erörtern, ob sie ein geeignetes und vor allem moralisch angemessenes Mittel der Reaktion darstellen.
Da das Seminar einen Schwerpunkt auf philosophischem Arbeiten hat, werden wir uns in diesem Seminar (stärker, als dies ohnehin in allen Seminaren am Philosophischen Institut der Fall ist) mit wissenschaftlich-philosophischem Arbeiten beschäftigen. Fragen wie „Wie recherchiert man richtig?“, „Wie kann man die Argumentation eines philosophischen Textes rekonstruieren und kritisch prüfen?“ und „Wie schreibt man ein philosophisches Essay bzw. eine Hausarbeit?“ werden über das Semester hinweg behandelt. Dabei werden wir diese Fragen nicht gesondert und fernab des Seminarthemas besprechen, sondern gerade anhand der Texte, die wir ohnehin lesen, erörtern.
Zusätzlich zu der für einen Leistungsnachweis erforderlichen Hausarbeit am Ende des Semesters wird es im Laufe des Seminars zu Hausaufgaben und Schreibübungen kommen. Bitte nehmen Sie nur am Seminar teil, wenn Sie bereit sind, diese auch zu erledigen.
Literatur:
- Bostrom, N. (2014). Superintelligenz: Szenarien einer kommenden Revolution
- Kurzweil, R. (2005). The Singularity is Near
- Chalmers, D. (2010). "The Singularity: A Philosophical Analysis." Journal of Consciousness Studies 17:7-65. (Online frei zugänglich!)
Zur Einstimmung:
- http://www.zeit.de/feuilleton/Kursbuch_164/flessner
- http://www.sueddeutsche.de/wissen/verbesserte-menschen-die-vielleicht-gefaehrlichste-idee-der-welt-1.1691220
- https://www.freitag.de/autoren/kaesebier-ii/sag-zum-abschied-leise-servus
- http://www.heise.de/tp/artikel/43/43788/1.html
http://www.spiegel.de/netzwelt/web/offener-brief-was-kuenstliche-intelligenz-koennen-und-duerfen-soll-a-1012520.html |