KI für oder gegen Krieg?

KI als Technologie ist selbst neutral. Entscheidend sind die Governance, internationale Regelungen und die ethischen Entscheidungen, die wir heute treffen. KI ist ein Multiplikator von menschlicher Intention und Organisationsfähigkeit.

Wenn die dominierenden Akteure weiterhin glauben, dass militärische Überlegenheit wichtiger ist als Stabilität des Gesamtsystems, dann wird KI das Wettrüsten massiv beschleunigen. WENN (großes unwahrscheinliches Wenn!) die großen Mächte irgendwann kollektiv zum Schluss kommen, dass ein halbwegs stabiles globales System wichtiger ist als der Versuch, einige Jahre Vorsprung zu haben, dann kann KI ein mächtiges Werkzeug zur Stabilisierung und Konfliktprävention werden. Mit Stand Januar 2026 sieht der erste Pfad deutlich wahrscheinlicher aus.

Es geht vielleicht gar nicht darum, ob die KI friedensfördernd oder kriegstreibend ist. Das ist nicht die richtige Frage. Die eigentliche Frage wäre: 
Wer hat den „Ausschaltknopf“, wenn KI beginnt, die Spielregeln unserer Zivilisation neu zu schreiben?

Im Januar 2026 befinden wir uns bereits mitten in einer stillen Umkodierung der Zivilisation. Ich beobachte, dass KI uns bereits funktional ersetzt, während wir noch glauben, am Steuer zu sitzen. Wir passen uns den Bedürfnissen der Algorithmen an, statt die Technik unseren Werten unterzuordnen.  

Hier vier Bereiche, in denen die Regeln bereits fundamental geändert wurden: 

1)  Wahrheit 
Früher galt: „Ich habe es mit eigenen Augen gesehen.“ Heute, in einer Welt von Echtzeit-Deepfakes und perfekt generierten Primärquellen, ist dieser Grundsatz tot. Wer die Plattform kontrolliert, auf der Informationen gefiltert werden, kontrolliert die „gefühlte Realität“ der Massen

2) Verantwortung 

Wir erleben gerade den Aufstieg der Agentic AI: KI-Systeme, die nicht mehr nur auf Befehle warten, sondern Ziele erhalten und autonom handeln (im Einkauf, im IT-Management oder in der Rechtsberatung). 
Verantwortung wird diffus. Wenn ein KI-Agent eine Entscheidung trifft, die einen wirtschaftlichen Schaden oder soziale Ungerechtigkeit verursacht, greifen unsere alten Haftungsregeln ins Leere. 

Wir delegieren nicht nur Arbeit, sondern schleichend auch unsere Urteilskraft.


3) Recht 

Die EU versucht zwar mit dem AI Act (die striktesten Regeln treten 2026 schrittweise in Kraft) gegenzusteuern, doch die technologische Realität ist oft schneller: In vielen Bereichen (z.B. Kreditvergabe, Bewerbungsprozesse) ist das Urteil der KI faktisch endgültig. Der Rechtsweg ist theoretisch offen, aber praktisch oft unmöglich, da die „Black Box“ der Entscheidung für menschliche Richter kaum zu durchleuchten ist. Wir bewegen uns von einer Justiz der Einzelfallprüfung hin zu einer Justiz der statistischen Wahrscheinlichkeit.


4) Souveränität

Souveränität ist nicht mehr an Territorium gebunden, sondern an Rechenleistung und Datenbesitz (vom Grenzstein zum Rechenzentrum). 
Staaten wie die Schweiz oder Deutschland versuchen zwar mit Projekten für „Souveräne KI“ (eigene nationale Modelle) gegenzusteuern, doch die Abhängigkeit von den „Digitalen Leviathanen“ der USA und Chinas ist bereits tief in der staatlichen Infrastruktur verwurzelt. Nationale Modelle lösen das Problem nur, wenn sie in eine Souveränitäts-Kette (Datenhoheit, KI-Modell-Hoheit, Betriebs-Hoheit, Lieferketten-Hoheit) eingebettet sind. 
Sonst ist es wie “eigener Traktor”, aber der Diesel kommt immer noch von genau dem Anbieter, von dem du unabhängig werden willst.  

Elmar Albertini

Deine Meinung!

Schreibe uns deine Meinung und Gedanken.
Deine Meinung »

Über den Friedensblog

Die Ideengeber hinter dem Friedensblog sind: Sepp Kusstatscher - Arno Teutsch - Susanne Elsen - Erwin Demichiel - Johannes Fragner-Unterpertinger
Über uns »

Kategorien