Elon Musk«Künstliche Intelligenz könnte Weltkrieg starten»
Elon Musk findet, die grösste Bedrohung für die Menschheit gehe nicht von Kim Jong-un oder Donald Trump aus. Er fürchtet eher einen Kontrollverlust der Rechenleistung.
Der Konflikt um Nordkoreas Atomprogramm spitzt sich zu, bald stehen sich Kim Jong-un und Donald Trump mit Atomwaffen gegenüber. Nach Einschätzungen des südkoreanischen Militärs kann Nordkorea Atombomben bereits kompakt genug herstellen, um sie auf eine seiner Raketen zu packen, die immer höher und weiter ins Japanische Meer und in den Pazifik fliegen. Mit einem flacheren Abschusswinkel würden sie nach Berechnungen des Physikers David Wright gar die US-Westküste (Seattle, San Francisco, Los Angeles) erreichen. Bezweifelt wird dabei noch, ob Nordkorea auch den Wiedereintritt in die Atmosphäre beherrscht, um die Gefechtsköpfe im Ziel zur Explosion zu bringen.
Doch der Raketenexperte und Space-X-Gründer Elon Musk zeigt sich mässig beeindruckt. «Die Bedrohung durch Nordkorea sollte tief unten auf unserer Liste zivilisatorischer Risiken stehen», kommentiert er auf Twitter. Das Land sei nicht in Allianzen verstrickt und könne deswegen die Welt nicht so stark polarisieren, dass sie in einen Weltkrieg stürzt.
«Der wahrscheinlichste Grund für 3. Weltkrieg»
Weitaus mehr Sorgen macht sich der Tesla-Chef um die künstliche Intelligenz (KI). «Der Wettbewerb zwischen Staaten um die Vorherrschaft in der künstlichen Intelligenz ist meines Erachtens der wahrscheinlichste Grund für einen Dritten Weltkrieg», so Musk.
Wie soll das gehen? Musk befürchtet ein etwas anderes Szenario als in den «Terminator»-Filmen, wo die künstliche Intelligenz «Skynet» die Menschheit als Bedrohung wahrnimmt und mit einem Atomkrieg auslöschen will. Musk sieht im Machtkampf unter den Staaten, die militarisierte KIs einsetzen, die grössere Gefahr: «(Der Dritte Weltkrieg) könnte vielleicht nicht einmal von den Politikern ausgelöst werden, sondern von einer solchen künstlichen Intelligenz, die sich entscheidet, dass ein Präventivschlag der wahrscheinlichste Weg zum Sieg ist», erklärt Musk.
Künstliche Intelligenzen deklassieren Menschen
Der Raumfahrtsvisionär steht der Handhabe der neuen Technologie seit Jahren kritisch gegenüber. Die Macht der künstlichen Intelligenz dürfe sich nicht in den Händen weniger konzentrieren – seien das grosse Tech-Unternehmen oder Staaten. Musk hat deswegen im Dezember 2015 die Non-Profit-Organisation OpenAI gegründet, die eine Open-Source-Alternative für künstliche Intelligenz entwickelt.
Künstliche Intelligenzen haben Menschen bereits in mehreren Strategiespielen deklassiert, unter anderem im Schach und dem asiatischen Umzingelungsspiel Go. KIs bedienen sich dabei oft Zügen, die so noch nie von Menschen gemacht wurden. Der Mensch lernt dabei von der Maschine: An Go-Schulen, zum Beispiel werden teils Züge künstlicher Intelligenzen unterrichtet.
Eine mit OpenAI betriebene KI hat im August 2017 publikumswirksam die weltbesten Spieler des Real-Time-Strategiespiels «Dota 2» besiegt. Das wichtige Detail dabei: Kein Mensch hat der KI je irgendeinen Zug des Spiels beigebracht. OpenAI liess die KI einfach im Eiltempo mehrere Menschenleben lang gegen sich selbst spielen und lernen – bis sich die künstliche Intelligenz so selbst zur Weltklasse trainiert hatte.
Die KI schlug den Pro-Gamer Danylo «Dendi» Ishutin im ersten Match vor Publikum in rund zehn Minuten. Den zweiten Match gab Dendi nach wenigen Minuten auf, und zu einem dritten Match wollte er gar nicht mehr antreten. Er sagte, sein KI-Gegner «fühlte sich wie ein Mensch an, aber auch ein bisschen wie etwas anderes.» Nächstes Jahr hofft OpenAI bei einem 5-gegen-5-Match mitzuspielen.
Musks Skepsis gegenüber gewissen Formen von KI teilt auch der weltberühmte Physiker Stephen Hawking. «Bereits die einfache Form von künstlicher Intelligenz, wie wir sie heute nutzen, erweist sich als äusserst nützlich. Entwickelt sie sich weiter, könnte sie eines Tages das Ende der Menschheit bedeuten», sagte Hawking im Dezember 2014 im Gespräch mit dem «BBC», das um die Welt ging.
Dazumal hielt der Leiter der mehr als 1000 Wissenschaftler und Ingenieure der Microsoft Forschungslabore, Eric Horovitz, dagegen. Was künstliche Intelligenz angeht, sei «optimistisch», in einem BBC-Interview. Die Kontrolle über eine künstliche Intelligenz verlieren? «Ich glaube grundsätzlich nicht, dass das passieren wird», so Horovitz.
Auch verschiedene Schweizer Wissenschaftler schlossen sich damals dieser Auffassung an: «Egal, wie entwickelt Roboter einmal sein werden: Sie hätten immer Schwierigkeiten, uns davon abzuhalten, ihnen den Stecker zu ziehen», sagte etwa Joachim Buhmann, Leiter des Labors für maschinelles Lernen an der ETH Zürich. Rolf Pfeifer, der ehemalige Leiter des Artificial Intelligence Lab der Universität Zürich, wurde da noch deutlicher: «Ich habe langsam die Nase voll von all diesen Propheten, die den Untergang der Menschheit predigen.» Stephen Hawking sei sicher ein supergescheiter Mensch, «aber von Künstlicher Intelligenz und Robotik hat er offenbar keine Ahnung.»
Heutzutage vertritt Facebook-Gründer Mark Zuckerberg diese Haltung. Unlängst brach er einen kleinen Streit mit Musk vom Zaun, als er in einer öffentlichen Fragerunde auf Facebook sagte, als Optimist sehe er das nicht so eng. Für die Schwarzmalerei von Musk habe er gar kein Verständnis, sie sei sogar verantwortungslos. Zuckerberg sieht dann auch weniger die Schreckensszenarien als vielmehr die Vorteile von besserer Gesundheitsdiagnose oder sicheren selbstfahrenden Autos.
Musks Antwort auf Zuckerbergs Sticheleien liess nicht lange auf sich warten. Auf Twitter kommentierte er trocken: «Ich habe mit Mark gesprochen. Seine Kenntnisse in diesem Bereich sind beschränkt.»