Expedition Neuland
Nick Bostrom hat ein Buch über Superintelligenz geschrieben
Edward Snowden hat davor gewarnt, was Menschen mit Big Data machen. Was aber, wenn die gigantischen Computerkapazitäten gar nicht mehr im Dienst des Menschen unterwegs sind?
Di, 3. Nov 2015, 9:20 Uhr
Computer & Medien
Wir benötigen Ihre Zustimmung um BotTalk anzuzeigen
Unter Umständen sammelt BotTalk personenbezogene Daten für eigene Zwecke und verarbeitet diese in einem Land mit nach EU-Standards nicht ausreichenden Datenschutzniveau.
Durch Klick auf "Akzeptieren" geben Sie Ihre Einwilligung für die Datenübermittlung, die Sie jederzeit über Cookie-Einstellungen widerrufen können.
AkzeptierenMehr Informationen
Zutrauen tut man das den Computern seit ihrer Erfindung. Schon 1950 entwarf Informatik-Pionier Alan Turing einen Test, um wenigstens mitzubekommen, wenn Maschinen eigene Intelligenz entwickeln. 1965 zeigte der Statistiker I. J. Good die drastische Folge auf: Eine "ultraintelligente Maschine" wäre die letzte Erfindung, die der Mensch macht. Denn diese würde viel besser erfinden und so eine "explosionsartige Entwicklung der Intelligenz" lostreten, hinter der die Menschheit hoffnungslos zurückbliebe.
Damals waren Rechner noch groß wie Schrankwände mit der Leistung heutiger Spielzeugcomputer und die Ängste recht abstrakt. Inzwischen arbeiten Transistoren zehn Millionen Mal schneller als die Neuronen in unseren Gehirnen, erkennen unsere Laune am Gesichtsausdruck und erstellen aus unserer Sprechweise genauere Persönlichkeitsprofile als eine Psychologin. Algorithmen fällen an der amerikanischen Börse 70 Prozent der Investitionsentscheidungen, sagen Verbrechen voraus, diagnostizieren Krankheiten, übernehmen stilbewusste Modeberatung und steuern weltweit zehn Millionen Roboter, die in ihren Spezialgebieten schlauer, stärker und ausdauernder sind als wir. Tendenz steigend.
Auch Nick Bostrom beunruhigt das. Er hält Superintelligenz für die "bedrohlichste Herausforderung, vor der die Menschheit je gestanden hat". Wenn wir jetzt nicht aufpassen, dämmern wir bald nur noch in Nährstofftanks dahin. Der Schwede Bostrom hat Physik, Mathematik, Neurowissenschaften und Philosophie studiert, ist Professor in Oxford und Direktor des Future of Humanity Institute. Die renommierte US-Zeitschrift Foreign Policy zählt ihn zu den 100 weltweit wichtigsten Denkern.
Wie Kurzweil glaubt er an die baldige Ankunft einer Superintelligenz. Auf 500 Buchseiten spielt er akribisch durch, wie ein Superwesen, dessen Fähigkeiten jede Fantasie übersteigt und dessen Wille für unseren beschränkten Verstand zwangsläufig unergründlich ist, trotzdem irgendwie menschenfreundlich programmiert werden könnte. Das ist wichtig, denn wir haben nur einen Versuch.
Wenn Superintelligenz so gefährlich ist, wäre es da nicht klüger, sämtliche Experimente mit künstlicher Intelligenz zu beenden? Vielleicht, nur sieht Bostrom uns als "dümmstmögliche biologische Spezies, die zur Gründung einer technologischen Zivilisation in der Lage war", immer gleich reagieren, wenn uns etwas Neues lockt: "Leider gibt es bald eine Maschine, die die Welt zerstören wird. Zum Glück haben wir den Zuschuss für ihren Bau bekommen!" Folgerichtig sieht Bostrom für uns Menschentrottel nur eine Hoffnung: clever programmieren. Dann kann Superintelligenz uns helfen, mit genetisch und nanotechnologisch optimierten Körpern Krankheit und Leid zu überwinden. Die Gehirne laden wir auf Rechner hoch, werden so unsterblich und können endlich galaktisch denken. Das meint Bostrom wörtlich, denn wenn uns so eine Fusion mit der Superintelligenz glückt, erwartet uns ein geradezu paradiesisches "kosmisches Erbe", das bis an den Rand des beobachtbaren Universums reichen wird und: "Wenn eine einzige Freudenträne für das gesamte Glück eines solchen Lebens stünde, dann könnte das Glück all dieser Menschen alle Weltmeere in jeder Sekunde neu füllen, und das einhundert Milliarden Jahrtausende lang."
Man merkt: Bostrom hegt als Mitbegründer des Weltverbandes der Transhumanisten große Sympathie dafür, das Heil der Menschheit in einem digitalisierten Diesseits zu suchen, statt in einem spirituellen Jenseits. Wenn es klappt – Bostrom denkt ans Jahr 2075 – würden wir beginnen zu expandieren und jedem heute lebenden Menschen stünde bald mehr als eine Galaxis zur Verfügung. Wenn es schief geht, programmieren wir uns in ein "nordkoreanisches Arbeitslager" unter superintelligenter, nicht menschlicher Leitung. Fragt sich, an welcher Variante die derzeit größten Rechner bei NSA, Google und in China gerade arbeiten?
Als sympathische Alternative schlug SF-Parodist Douglas Adams einmal vor, die Erde selbst als Supercomputer zu betrachten. Statt uns als digitalisierten Klonen ferne Galaxien zu programmieren, könnten wir doch versuchen, mit möglichst vielen Spezies ein kooperatives Miteinander auf unserem Planeten zu gestalten – falls unser kleines Glück nicht von einer extraterrestrischen Superintelligenz weggesprengt wird, um einer intergalaktischen Umgehungsstraße Platz zu machen.
Nick Bostrom: Superintelligenz. Deutsch von Jan-Erik Strasser. Suhrkamp Verlag, Berlin 2014. 480 Seiten, 28 Euro.
Kommentare
Liebe Leserinnen und Leser,
leider können Artikel, die älter als sechs Monate sind, nicht mehr kommentiert werden.
Die Kommentarfunktion dieses Artikels ist geschlossen.
Viele Grüße von Ihrer BZ