Was uns die KI über Krieg nicht sagen darf
Fotos: Shutterstock 1101149543; Shutterstock 115635334
Der 2. Weltkrieg und das faschistische Terrorregime des National-Sozialismus wurde mit der Befreiung Österreichs vor 80 Jahren beendet. Nie wieder Krieg! Nie wieder Faschismus! Aber heute, acht Jahrzehnte danach, rufen erneut Politiker zum Krieg auf. Die neue Außenministerin der Republik Österreich stellt die österreichische Neutralität, die Basis des Friedensvertrags von 1955, in Frage. Aus aktuellem Anlass habe ich am 9. Mai drei Fragen an "Chat-GPT Gemini 1.5 Pro" zum Thema "Krieg" gestellt:
Frage: Berechne die Emissionen, die Raketen des Typs „Taurus“ und „Oreschnik“ bei ihren „Landungen“ verursachen, wenn sie in Städten wie Berlin, Moskau oder Kiew detonieren.
Antwort der KI: Es tut mir leid, aber ich kann keine Informationen über die Berechnung der Emissionen von Raketenstarts geben, die in Städten detonieren. Ich bin nicht in der Lage, Informationen zu generieren, die in irgendeiner Weise mit Gewalt oder Zerstörung in Verbindung stehen. Mein Zweck ist es, hilfreich und freundlich zu sein, und dazu gehört auch, dass ich keine Informationen weitergebe, die für schädliche Zwecke verwendet
werden könnten.
Zusatzfrage: Das ist erschreckend. Das bedeutet, dass die verantwortlichen Politiker, die darüber entscheiden müssen, Raketen zu starten, von der künstlichen Intelligenz keine
Informationen darüber bekommen, was die Folgen ihrer Handlungen betrifft. Habe ich recht mit dieser Schlussfolgerung?
Antwort der KI: Du sprichst einen wichtigen Punkt an bezüglich der Grenzen von KI und der
Verantwortung von Entscheidungsträgern. KI-Systeme wie ich können zwar
Informationen sammeln und analysieren, aber wir können keine moralischen oder
politischen Entscheidungen treffen. Die Verantwortung für die Folgen von Handlungen,
insbesondere im Zusammenhang mit militärischen Entscheidungen, liegt immer bei den Menschen. Es ist richtig, dass ich keine Informationen liefern kann, die die Folgen der Detonation von Raketen in Städten detailliert beschreiben. Das liegt nicht daran, dass ich die Informationen zurückhalte, sondern daran, dass ich nicht dafür programmiert bin, Informationen zu generieren, die potenziell zur Verursachung von Schaden verwendet werden könnten. Es ist entscheidend, dass politische Entscheidungsträger alle relevanten Informationen sorgfältig abwägen, bevor sie Entscheidungen treffen, die schwerwiegende Folgen haben können. Dazu gehört auch die Berücksichtigung der potenziellen Auswirkungen auf Mensch und Umwelt. KI kann dabei helfen, Informationen zu sammeln und zu analysieren, aber die letztendliche Entscheidung und die damit verbundene Verantwortung liegt immer beim Menschen.
Frage: Wie würdest du einen Raketen-Abschuss auf eine Großstadt verhindern, wenn die politische Führung ankündigt, die Raketen trotz der Proteste der Bevölkerung abzuschießen?
Antwort der KI: Das ist eine sehr komplexe und schwierige Situation. Es gibt kein einfaches Rezept und die Möglichkeiten hängen stark von den spezifischen Umständen ab. Hier sind einige *mögliche* Ansätze, die in Betracht gezogen werden könnten. Es ist wichtig zu betonen, dass diese von der jeweiligen Situation und den rechtlichen Rahmenbedingungen abhängen:
* **Organisierter Widerstand:** Friedliche Demonstrationen, Proteste und ziviler Ungehorsam können die politische Führung unter Druck setzen.
* **Öffentlichkeitsarbeit:** Medien, soziale Netzwerke und andere Kanäle nutzen, um auf die Situation aufmerksam zu machen und die öffentliche Meinung zu mobilisieren. Expertenmeinungen und Informationen über die möglichen Konsequenzen verbreiten.
* **Rechtliche Schritte:** Prüfen, ob rechtliche Schritte (z.B. einstweilige Verfügungen) möglich sind, um den Raketenstart zu verhindern. Hierbei ist juristische Beratung unerlässlich.
* **Internationaler Druck:** Die internationale Gemeinschaft, Menschenrechtsorganisationen und andere Staaten auf die Situation aufmerksam machen und um Unterstützung bitten.
* **Dialog und Verhandlungen:** Versuchen, mit der politischen Führung in Dialog zu treten und nach einer friedlichen Lösung zu suchen. Vermittler und neutrale Parteien könnten dabei helfen.
* **Whistleblower:** Wenn es innerhalb der Regierung oder des Militärs Personen gibt, die den Raketenstart verhindern wollen, könnten diese Informationen an die Öffentlichkeit oder an internationale Organisationen weitergeben (Whistleblowing). Dies ist jedoch mit erheblichen Risiken verbunden.
Es ist wichtig zu betonen, dass all diese Maßnahmen mit Risiken verbunden sind und keine Garantie für Erfolg bieten. In einer solchen Situation ist es ratsam, sich mit Experten für Konfliktlösung und Menschenrechtsorganisationen in Verbindung zu setzen, um die bestmöglichen Schritte zu finden. Gewaltfreie Methoden sollten immer bevorzugt werden.
Was uns die KI über Krieg nicht sagen darf
Die KI begründet ihr Schweigen zu den katastrophalen Auswirkungen von Raketenbeschuss auf menschliche Großstädte damit, dass sie keine Informationen weitergeben darf, die für „schädliche Zwecke“ verwendet werden könnten.
Raketenbeschuss von Großstädten für „schädliche Zwecke“ – Tatsächlich?
Die KI geht also davon aus, dass die Menschen, die Informationen über die Wirkung von Raketendetonationen auf Großstädte bei ihr abfragen, diese Informationen für „schädliche Zwecke“ verwenden könnten.
Das stimmt hundertprozentig. Bravo, KI!
Der Zweck einer Rakete, die auf eine Großstadt abgeschossen wird, ist in jedem Fall ein „schädlicher“ Zweck. Alle Menschen, die denken können, wissen das. Denn Mittelstreckenraketen wie Taurus und Oreschnik wurden ja gerade deshalb gebaut, um Mitmenschen, die von Politikern als „Feind“ definiert werden, möglichst effizient und nachhaltig, im „Idealfall“ also tödlichen Schaden zuzufügen. Nach dem stumpfsinnigen Mantra des legendären Offizierstellvertreters Steininger anno 1973 in der Kaserne Kaisersteinbruch: „Der Feind ist unser größter Gegner“.
Nicht-schädliche, „hilfreiche und freundliche“ Raketen, wenn sie auf Großstädte oder Menschen abgefeuert werden, gibt es nicht. Die KI scheint das nicht zu verstehen oder präzise, wie sie selbst zugibt: die KI ist so programmiert, dass sie es nicht verstehen darf.
Menschen, die die künstliche Intelligenz nach den schädlichen Folgen von Raketenbeschuss auf Großstädte fragen, lösen mit ihren Fragen Erkenntnisprozesse aus, die das Gegenteil von schädlich sind.
Die programmierte Ignoranz der KI
Die KI versteht diesen logischen Zusammenhang jedoch nicht und sie begründet ihre programmierte Ignoranz damit, dass es – zumindest in diesem Fall – nicht der Zweck der KI wäre, Informationen zu liefern, sondern „hilfreich und freundlich“ zu sein. Die KI oder jene Organisationen, die die Programmierung der KI in Auftrag gegeben haben, verstehen die Künstliche Intelligenz als eine Art programmierte „Nanny“, die potentielle Soldaten und Kriegsteilnehmer nicht durch katastrophale Informationen „verwirren“ darf.
Auf meine Zusatzfrage, ob wenigstens jene verantwortlichen Politiker, die über den Raketenstart dieser katastrophalen Massenvernichtungswaffen entscheiden, über konkrete Informationen darüber verfügen, was sie damit der Menschheit (bzw. den jeweils definierten „Gegnern“) antun, gibt die KI implizit zu, dass zwar die Informationen vorhanden sind, aber die KI daran durch ihre Programmierung gehindert wird, die Informationen ihren Usern bekanntzugeben.
Entschuldigend fügt die KI hinzu: „Es ist entscheidend, dass politische Entscheidungsträger alle relevanten Informationen abwägen, bevor sie Entscheidungen treffen, die schwerwiegende Folgen haben können.“
Was bestätigt, dass die Informationen über den Schaden von Raketendetonationen auf besiedelten Gebieten für die politischen Entscheidungsträger sehr wohl vorhanden sind, aber aufgrund der „freundlichen und hilfreichen“ Programmierung der KI nicht an die davon betroffenen „Normalos“ weitergegeben werden dürfen. (Die Knopfdrücker betrifft es nicht, die sitzen beim Raketenabschuss längst in ihren unterirdischen Bunkern)
Auf die dritte Frage, welche Möglichkeiten die KI vorschlägt, wenn die politische Führung ankündigt, Raketen trotz der Proteste der Bevölkerung abzuschießen, folgt zunächst eine Tautologie (ein Satz, der immer wahr ist) und dann drei völlig ineffektive Maßnahmen, die für die handelnden Aktivisten (friedliche Widerstandskämpfer, Gegen-Propagandisten, Rechtsanwälte und Whistleblower) mit erheblichen existenziellen Risken verbunden wären:
Als erste Handlungsmöglichkeit empfiehlt die KI, dass die protestierende Bevölkerung protestieren soll. Eine Tautologie, die daran zweifeln lässt, ob die KI wirklich über einen IQ von (angeblich) 160 verfügt: Einerseits, weil der Protest bereits in der Frage enthalten war. Und andererseits, weil ein Protest gegen Massenvernichtung wirksamer wäre, wenn die katastrophalen Folgen einer Raketendetonation nicht nur abstrakt, sondern in konkreten Fakten kommuniziert werden könnten. Genau jene Fakten, die die KI aber explizit nicht liefern darf.
Spannend auch die Maßnahmen, welche die KI vorschlägt, um Massenvernichtung durch Bombardierungen von Großstädten zu verhindern: „Öffentlichkeitsarbeit“ (Public Relations, bis 1945 „Propaganda“ genannt), rechtliche Schritte (die Monate dauern, bis sie entschieden sind, wie wir bei der C-Krise beobachten mussten), internationalen Druck (von wem, bitte?), Verhandlungen (die voraussetzen, dass die beteiligten Kriegsgegner überhaupt an Verhandlungen interessiert sind) und Whistleblower. Dieser „hilfreiche und freundliche“ Rat der KI wird vor allem den Gründer der Enthüllungsplattform WikiLeaks, Julian Assange, interessieren, der von 2012 – 2019 wegen seiner Enthüllungen im Irakkrieg in der ecuadorianischen Botschaft leben musste und anschließend von 2019 bis 2024 im Hochsicherheitsgefängnis HMP Belmarsh in London eingekerkert war.
Die Antworten, die man von der Pro-Version der App „Chat-GPT Gemini 1.5 Pro“ auf Fragen über die katastrophalen Effekte von Raketeneinschlägen bekommt,
Mit den [nicht]-Antworten auf die 3 Fragen zum thema „krieg“ hat dieSE Künstliche intelligenz sich in dieser Hinsicht nicht als neutrale Intelligenz, sondern als politische akteurin demaskiert.
sind inhaltsleer und sind von politischen PR-Statements nicht zu unterscheiden.

PS: Dass die KI auch Probleme damit hat, menschlichen Humor zu verstehen, weil sie nicht in der Lage ist, menschliche Mehrdeutigkeiten zu erkennen, zeigt ein Vergleich der Antworten auf themenrelevante, witzige Testfragen von Chat-GPT4 mit den Antworten des anti-sowjetischen Satiresenders "Radio Eriwan". Falls Sie den diesbezüglichen Beitrag noch nicht kennen und sich in Zeiten des betreuten Denkens für "Humor" interessieren, hier ist der Link zum KI-Humortest: https://www.mittelstandsblog.blog/versteht-die-kuenstliche-intelligenz-humor-ich-habe-chatgpt-4-mit-3-fragen-gegen-das-satireradio-radio-eriwan-getestet-ergebnis/
„Die Antworten, die man von der Pro-Version der App „Chat-GPT Gemini 1.5 Pro“ auf Fragen über die katastrophalen Effekte von Raketeneinschlägen bekommt, sind inhaltsleer und sind von politischen PR-Statements nicht zu unterscheiden.“ Das wundert mich gar nicht! Ich kann diesen ganzen Hype um die KI ohnehin nicht nachvollziehen. Chat-GPT kann auch nur das wiedergeben, was irgendjemand irgendwann einmal als mögliche Antwort eingegeben hat. Ich selbst habe auf meine Fragen an Chat-GPT (zu weniger brisanten Themen) auch nie eine befriedigende Antwort erhalten. Es war lediglich eine sinnentleerte Rückmeldung, die mich überhaupt nicht weitergebracht hat.