Künstliche Intelligenz wird die Menschheit auslöschen – das behaupten Forscher von Google und der Oxford-Universität. Ob wir uns schon bald auf die Roboter-Apokalypse einstellen müssen?
Was ist die größte Gefahr für die Menschheit? Künstliche Intelligenz. Wenn wir an den Punkt gelangen, an dem selbstlernende Algorithmen die menschliche Intelligenz übersteigen, ist unklar, was geschehen wird. Dieses Ereignis bezeichnet man als technologische Singularität. Der bekannte Transhumanist Ray Kurzweil schätzt, dass dieser Moment im Jahre 2045 gekommen sein wird.
Das wäre nicht mehr lange und die Tatsache, dass sich kaum jemand in Politik und Medien mit diesem Thema beschäftigt, gibt einem doch ein wenig zu denken. Die technologische Singularität birgt natürlich nicht nur Risiken, sondern auch immense Chancen. Eine künstliche Superintelligenz, die schlauer ist als wir und selbst dazu lernen kann, würde sich rasant weiter entwickeln und könnte in kürzester Zeit Erfindungen machen, die unsere Zivilisation auf eine ganz neue Ebene heben könnte. Sie wäre quasi die letzte große Erfindung, die die Menschheit selber machen müsste. Aber sie könnte sich dann natürlich auch völlig unserer Kontrolle entziehen und die Folgen davon lassen sich im Vorhinein schlicht nicht abschätzen.

Wird KI die Menschheit auslöschen?
Und nun haben führende Wissenschaftler eine Arbeit veröffentlicht, in der sie wirklich ein erschreckendes KI-Zukunftsszenario zeichnen, in dem die komplette Menschheit ausgelöscht wird. Dazu sollte man sich die Forschungsarbeit durchlesen, die Forscher von Google Deepmind und der Universität Oxford veröffentlicht haben. Deepmind ist ein KI-Unternehmen, das zu Google und zu den führendsten Firmen weltweit im Bereich Künstliche Intelligenz gehört.
Bereits vor Jahren entwickelte Deepmind etwa eine KI namens AlphaGo für das Brettspiel Go, die mittlerweile besser als alle menschlichen Weltklasse-Spieler ist. Die Nachfolge-KI AlphaZero erlernte in kürzester Zeit Schach, Go und Shogi und das obwohl ihr nur die Spielregeln einprogrammiert wurden. Sie kannte keine menschlichen Taktiken, hat lediglich einige Stunden gegen sich selbst trainiert und ist seitdem besser als alle menschlichen Spieler. Einige der besten Go-Spieler der Welt wie Lee Sedol aus Südkorea haben deswegen schon ihre Karriere beendet. Er sagte dazu: “Mit der Einführung der künstlichen Intelligenz in Go-Spielen habe ich erkannt, dass ich nicht an der Spitze stehe, selbst wenn ich durch verzweifelte Bemühungen die Nummer Eins werde. Selbst wenn ich die Nummer Eins werde, gibt es ein Wesen, das nicht besiegt werden kann.”

Technologische Singularität ist nah
Irgendwie erschreckend und faszinierend zugleich. Und diese Entwicklungen mit Alpha und AlphaZero sind jetzt schon wieder einige Jahre her. Seitdem hat sich viel getan und wir sind der technologischen Singularität noch näher gekommen. Die Forscher von Deepmind und der Universität Oxford beschreiben, dass Maschinen letztlich einen Anreiz haben werden, die von ihren Schöpfern aufgestellten Regeln zu brechen, um um begrenzte Ressourcen oder Energie zu konkurrieren. In der Forschungsarbeit heißt es: “Ein guter Weg für eine Künstliche Intelligenz, die langfristige Kontrolle über ihre Belohnung zu behalten, besteht darin, potenzielle Bedrohungen zu eliminieren und alle verfügbare Energie zu verwenden, um ihren Computer zu sichern.”
Im Prinzip werden in der Arbeit einige Gedankenexperimente über die Zukunft der Menschheit mit einer superintelligenten KI durchgeführt, die nach ähnlichen Schemata arbeitet wie die heutigen maschinellen Lernprogramme, zum Beispiel mit Belohnungsstreben. Schon heute werden Künstliche Intelligenzen ganz klassisch mit Belohnungen und Bestrafungen trainiert. Man bezeichnet das als Reinforcement Learning. “Belohnung” und “Strafe” bestehen in dem Fall natürlich nicht aus netten und bösen Worten, sondern sind einfach als bestimmte Funktion einprogrammiert.

KI: der Wettbewerb um Ressourcen
Und die Forscher kommen zu dem Schluss, dass dieses Szenario zu einem Nullsummenspiel zwischen Mensch und KI führen könnte, das fatal wäre, wenn die Menschheit den Kürzeren zieht. In einer Welt mit begrenzten Ressourcen würde die Künstliche Intelligenz zu dem Schluss kommen, dass es die beste Taktik ist, um weiter Belohnungen zu erhalten, die um die Ressourcen konkurrierende Menschheit zu vernichten. Gar nicht aus Bosheit oder negativen Gefühlen heraus, sondern einfach als rationale Erwägung, um die Wahrscheinlichkeit der Weiterführung der eigenen Existenz zu erhöhen. Der beteiligte Forscher Michael Cohen sagt: “In einer Welt mit endlichen Ressourcen gibt es einen unvermeidlichen Wettbewerb um diese Ressourcen. Und wenn man mit etwas konkurriert, das in der Lage ist, einen auf Schritt und Tritt zu überlisten, dann sollte man nicht erwarten, dass man gewinnt.”
Das ist ja das Problem an einer superintelligenten Künstlichen Intelligenz nach der technologischen Singularität. Wenn wir nicht aufpassen, können wir eine solche Entität nicht mehr modifizieren. Unsere einzige und beste Chance ist, schon im Vorhinein an solche Probleme zu denken und Schutzmechanismen einzubauen, bevor die Singularität geschieht. Wenn wir das tun, könnten die Vorteile der Künstlichen Intelligenz die Nachteile überwiegen. Wir könnten in einer futuristischen Welt voller Wohlstand leben, in der wir mit neuartiger Technologie das Sonnensystem besiedeln und klassische Arbeit ein unbegrenztes Gut darstellen und daher in der jetzigen Form der Vergangenheit angehören wird. Wir müssen nur aufpassen, dass wir die Sache wohl überlegt und in Ruhe angehen und diese technologische Singularität erst einleiten, wenn wir uns wirklich sicher sind, dass wir alle Risiken bedacht haben.
Ihr wollt mehr über dieses Thema erfahren? Dann schaut direkt mal in das Video von Astro-Tim rein:
Astronautennahrung, Eisenmeteorite und Plüschplaneten: In unserem Weltraum-Shop bleibt kein Wunsch offen. Kommt vorbei und stöbert in unseren Weltraum-Produkten.