Liebe Kommentatoren,
besonders sehr geehrter Herr Mangold, Sie haben versucht, die Diskussion über KI in der Episode "Ich bin doch selber nur Software" vom 20-März auf der philosophischen Ebene der Frage zu halten, ob die KI Bewusstsein habe, je haben könne oder nicht. Ich halte jene Diskussion für irrelevant. Ja, ich finde es sogar hoch-gefährlich, den Diskurs über KI auf diesem Elfenbeinturm-Thema zu halten, denn das zapft intellektuelle Energie ab vom Nachdenken über das eine philosophische Thema, das noch relevant sein "darf" meiner Meinung nach: die Vermeidung der existenziellen Gefahren, die von KI ausgehen für den Menschen und für unsere Hochkultur. Die Unterjochung, die Herr Mangold süffisant als absurde Hypothese heranzieht, ist es übrigens nicht, worin die existenzielle Gefahr besteht...
Das "alignment" Problem
Bitte hören Sie den Vortrag Can we build AI without losing control over it? von Sam Harris, der bereits vor 6 Jahren bei TED den Stand der Forschung und der Technikfolgenabschätzung zusammengefasst hat; im Grunde basierend auf den Gedanken von Bostrom und Russel, die selbst bei TED gesprochen haben, deren Thesen Harris allerdings eine besondere Prägnanz verleiht. Bis heute hat sich an der Lage nichts wesentliches geändert.
Herr Mangold, Sie sagen im Podcast tatsächlich, sie wollten die Frage der Relevanz nicht diskutieren — sondern jene des Bewusstseins. Ok, vielleicht hatten Sie ein besitmmtes Thema für den Podcast im Sinn. Aber mit der Frage, ob KI Bewusstsein haben kann, sollten wir heutzutage keine Zeit verbringen, finde ich. Denn auch ohne Bewusstsein ist KI heute schon gefährlich für unsere Zivilisation. Und beim Nachdenken über mehr KI Sicherheit kommt das Thema Bewusstsein dann ohnehin vor; aber als Unterpunkt und mit einer soliden Denkrichtung: Bewusstsein, wozu ? Derzeit geht die Schere zwischen KI-Forschung und KI-Sicherheitsforschung immer weiter auseinander.
Feuilleton darf auch mal schöngeistig sein. Ja, wenn es nicht weh tut. Aber es tut weh, wenn wir die irrelevante Frage des KI-Bewusstseins weiter penetrieren oder sie nicht mit der klaren Zielrichtung diskutieren, was (Nicht-)Vorhandensein von KI Bewusstsein für die Sicherheit bedeutet. Und schließlich wollen wir alle die Segen hochentwickelter KI genießen können. Ohne dabei unsere Zivilisation aufs Spiel zu setzen. KI Sicherheit bietet ausreichend philosophischen Stoff, der einer Behandlung in Ihrem Podcast würdig wären: denn da es KI-Sicherheit weder mit Stopp-Knopf geben wird noch mit Sandbox, werden wir das Alignment-Problem lösen müssen. Und die Lösung dafür, wie wir eine hochentwickelte (intelligente, unkörperliche und bewusstseinslose) KI an unsere Moral und Ethik anpassen, muss auch philosophisch diskutiert werden.
Herzlichen Dank fürs Lesen. Ich freue mich auf die Fortsetzung des Themas in der sogenannten Gegenwart.
Appendix
- Robert Miles' YouTube Kanal zu KI-Sicherheit
- CBS Mornings, full interview: "Godfather of artificial intelligence" talks impact and potential