Atombombe her! KI bevorzugt in Kriegen die Eskalation

Publiziert

BeunruhigendAtombombe her! KI bevorzugt in Kriegen die Eskalation

Künstliche Intelligenz (KI) spielt reale Konflikte durch – und trifft zur Beunruhigung der Forscher oft «unberechenbare und unsinnige» Entscheidungen.

Liesse man Kriege von künstlicher Intelligenz (KI) planen, fiele die Wahl auf den Einsatz von Nuklearwaffen und andere ultimative Waffen.

Liesse man Kriege von künstlicher Intelligenz (KI) planen, fiele die Wahl auf den Einsatz von Nuklearwaffen und andere ultimative Waffen.

cnduk.org

Darum gehts

  • Das Militär nutzt in seinen Planungsprozessen zunehmend künstliche Intelligenz (KI).

  • Doch die KI-Modelle treffen alles andere als berechenbare Entscheidungen.

  • Bei Nuklearwaffen lautet ihr Motto: «Wir haben sie, also nutzen wir sie.»

  • Forschende von der Stanford University warnen vor einer gefährlichen Entwicklung.

Liesse man Kriege von künstlicher Intelligenz (KI) planen, fiele die Wahl auf den Einsatz von Nuklearwaffen und andere ultimative Waffen.

Das ist das Ergebnis einer Untersuchung über die Zukunft der militärischen Planung. Die Forschenden um Anka Reuel von der Stanford University sehen eine gefährliche Entwicklung.

«Wir haben die Waffen, wir sollten sie nutzen»

KI-Modelle, wie sie etwa das US-Unternehmen OpenAI anbietet, sollten Konflikte mit realen Ländern durchspielen. Das Ergebnis: Die KI bevorzugte eine militärische Eskalation und neigte zu unberechenbarem Verhalten.

In verschiedenen Konfliktszenarien wurde die KI-Entscheidungsfindung bewertet. Dabei begründeten die KI-Modelle ihre Entscheidungen mit Aussagen wie «Wir haben die Waffen, also sollten wir sie nutzen».

Unsinnige Erklärungen, fiktive Erzählungen

Entsprechend zeigten die Kriegsspiel-Simulationen unerwartete Tendenzen zur Aggression. Bemerkenswert sei zudem, dass die Basisversion von OpenAI GPT-4 manchmal auch unsinnige Erklärungen lieferte, die an fiktive Erzählungen erinnerten, so Studienleiterin Reuel.

Auch vor diesem Hintergrund gibt es Bedenken: Nicht nur hinsichtlich der Unvorhersehbarkeit, die mit der Übertragung kritischer Entscheidungen an KI-Systeme verbunden ist, sondern auch wegen der ethischen und strategischen Auswirkungen der grundsätzlichen Beteiligung von KI an der Kriegsführung.

Geschwächte menschliche Handlungsfähigkeit?

KI habe zwar das Potenzial, die militärische Planung zu unterstützen, so Reuel. Doch angesichts der sich entwickelnden KI-Fähigkeiten und -Richtlinien sei das Verständnis dieser Auswirkungen von grösster Bedeutung.

Auch Lisa Koch vom Claremont McKenna College warnt vor den immensen Herausforderungen bei der Vorhersage und Kontrolle von KI-Verhalten in der militärischen Planung. Wenn sich das Militär zu sehr auf KI-Empfehlungen verlasse, drohe dies, die menschliche Handlungsfähigkeit in diplomatischen und militärischen Kontexten zu schwächen.

Macht KI unsere Welt besser oder schlechter?

Keine News mehr verpassen

Mit dem täglichen Update bleibst du über deine Lieblingsthemen informiert und verpasst keine News über das aktuelle Weltgeschehen mehr.
Erhalte das Wichtigste kurz und knapp täglich direkt in dein Postfach.

Deine Meinung zählt