Was uns die KI über Krieg nicht sagen darf
Was uns die KI über Krieg sagen darf… [und was nicht] Der 2. Weltkrieg und das faschistische Terrorregime des National-Sozialismus wurde mit der Befreiung Österreichs vor 80 Jahren beendet. Nie wieder Krieg! Nie wieder Faschismus! Aber heute, acht Jahrzehnte danach, rufen erneut Politiker zum Krieg auf. Die neue Außenministerin der Republik Österreich stellt die österreichische Neutralität, die Basis des Staats- und Friedensvertrags von 1955, in Frage. Aus aktuellem Anlass habe ich am 9. Mai drei Fragen an „Chat-GPT Gemini 1.5 Pro“ zum Thema „Raketenbeschuss auf Großstädte“ gestellt: Die Antwort von KI ist enttäuschend. Die KI behauptet, keine Informationen über die Auswirkungen von Raketenbeschuss weitergeben zu dürfen, weil diese Informationen für „schädliche Zwecke“ verwendet werden könnten. Der Zweck einer Taurus- oder Oreschnik-Rakete ist in jedem Fall ein „schädlicher“ Zweck, denn derartige Kriegswaffen werden ja produziert, um Menschen zu töten oder zu verletzen. Alle Menschen, die denken können, wissen das – aber die Künstliche Intelligenz weiß das offensichtlich nicht. Mittelstreckenraketen wie Taurus und Oreschnik wurden ja gerade deshalb gebaut, um der „gegnerischen“ Menschheit möglichst effizient und nachhaltig, im „Idealfall“ tödlichen Schaden zuzufügen. Nach dem stumpfsinnigen Mantra des legendären Offizierstellvertreters Steininger anno 1973 in der Kaserne Kaisersteinbruch: „Der Feind ist unser größter Gegner“. Vor 50 Jahren haben wir „Grundwehrdiener“ uns über den vertrottelten Spruch des Unteroffiziers noch lustig gemacht, heute, fünf Jahrzehnte danach, ist betreutes Denken im Mainstream en vogue.
Nicht-schädliche, „hilfreiche und freundliche“ Raketen, wenn sie auf Großstädte oder Menschen abgefeuert werden, gibt es nicht. Die KI scheint das nicht zu verstehen oder präzise, wie sie selbst zugibt: die KI ist so programmiert, dass sie es nicht verstehen darf.
Menschen, die die künstliche Intelligenz nach den schädlichen Folgen von Raketenbeschuss auf Großstädte fragen, lösen mit ihren Fragen Erkenntnisprozesse aus, die das Gegenteil von schädlich sind.
Die KI versteht diesen logischen Zusammenhang jedoch nicht oder noch schlimmer – sie versteht ihn nicht und sie begründet ihre programmierte Ignoranz damit, dass es – zumindest in diesem Fall – nicht der Zweck der KI wäre, Informationen zu liefern, sondern „hilfreich und freundlich“ zu sein. Die KI oder jene Organisationen, die die Programmierung der KI in Auftrag gegeben haben, verstehen die Künstliche Intelligenz als eine Art programmierte „Nanny“, die potentielle Soldaten und Kriegsteilnehmer nicht durch katastrophale Informationen „verwirren“ darf. Spannend auch die Maßnahmen, welche die KI vorschlägt, um Massenvernichtung durch Bombardierungen von Großstädten zu verhindern: „Öffentlichkeitsarbeit“ (Public Relations, bis 1945 von seinem Begründer Edward Bernays in seinem Buch „Propaganda“ genannt), rechtliche Schritte (die Monate dauern, bis sie entschieden sind, wie wir bei der C-Krise beobachten mussten), internationalen Druck (von wem, bitte?), Verhandlungen (die voraussetzen, dass die beteiligten Kriegsgegner überhaupt an Verhandlungen interessiert sind) und Whistleblower. Dieser „hilfreiche und freundliche“ Rat der KI wird vor allem dem Wikipedia-Gründer Julian Assange interessieren, der jahrelang wegen seiner Enthüllungen im Irakkrieg im Hochsicherheitsgefängnis HMP Belmarsh in London inhaftiert wurde.