Veröffentlicht inDigital Life

Kriegs-KI im Anmarsch? Google folgt düsterem Trend

Google bricht sein wohl wichtigstes ethisches Versprechen. Wo einst strikte Grenzen galten, öffnet der Tech-Gigant nun die Tür für militärische Nutzung.

Drohnen über den Wolken
© Restless - stock.adobe.com [M]

KI: Was ist eine künstliche Intelligenz?

Vom Roboterarm bis zur hyperintelligenten Maschine – KI ist bereits jetzt ein fester Bestandteil unseres Alltags …  aber wie funktioniert eine KI?

Google hat sich still und leise von seinem Versprechen verabschiedet, keine Künstliche Intelligenz (KI) für Waffen oder Überwachung einzusetzen. In den aktualisierten KI-Prinzipien fehlen jetzt klare Aussagen, die solche Technologien verbieten. Damit folgt das Unternehmen einem größeren Trend: Immer mehr große Tech-Konzerne arbeiten mit Militär und Geheimdiensten zusammen.

Google ist nicht allein

Der Militär-Trend hat sich beschleunigt, seit die Regierung der Vereinigten Staaten den Fokus stärker auf KI für nationale Sicherheit legt – besonders nachdem Donald Trump die Executive Order 14110 des Ex-Präsidenten Joe Biden zu sicheren und verantwortungsvollen KI-Standards aufgehoben hat.

Immer mehr Tech-Unternehmen steigen ins Militärgeschäft ein. Schon im November 2024 berichtete die Facebook-Mutter Meta, ihre Llama-KI-Modelle jetzt auch Verteidigungsbehörden zur Verfügung zu stellen. Anthropic und Amazon Web Services arbeiten mit dem Datenanalyse-Unternehmen Palantir zusammen, um KI-Tools für „US-amerikanische Verteidigungs- und Nachrichtendienste“ bereitzustellen, hieß es in einer weiteren Pressemitteilung.

Auch OpenAI hat sich Anfang Dezember mit dem Verteidigungs-Startup Anduril Industries verbündet, um KI für Drohnenabwehrsysteme zu entwickeln. Noch vor wenigen Jahren hätten diese Unternehmen militärische Anwendungen abgelehnt – jetzt scheint der wachsende Konkurrenzkampf mit China und der Druck der US-Regierung ihre Haltung geändert zu haben.

Auch interessant: Diese Partei würde ChatGPT wählen – laut Wahl-O-Mat zur Bundestagswahl

Automatisierte Kriegsverbrechen

Die Folgen von KI im Krieg sind schon heute tödlich, betont Zena Assaad, Dozentin an der Fakultät für Ingenieurwesen der Australian National University. In Gaza setzt das israelische Militär auf KI-gestützte Zielerfassungssysteme, die von Microsoft und Google mit Cloud-Diensten unterstützt werden. Diese Systeme analysieren riesige Datenmengen, um Ziele zu identifizieren, aber sie machen Fehler.

Laut Berichten israelischer Soldatinnen und Soldaten hat das dazu beigetragen, dass immer mehr Zivilisten ums Leben kommen. Die Behörden in Gaza sprechen inzwischen von über 61.000 Toten. Dass Google nun stillschweigend seine ethischen Leitlinien abgeschwächt hat, lässt Zweifel aufkommen, wie viel Verantwortung das Unternehmen wirklich übernehmen will.

Die Militarisierung von KI sei hochriskant, mahnt Assaad weiter. Je stärker Maschinen im Kriegsgeschehen Entscheidungen treffen, desto weniger Kontrolle bleibe in menschlicher Hand. Das erhöhe die Gefahr von fatalen Fehlern, unrechtmäßigen Tötungen und Kriegsverbrechen. Zudem könnten KI-gestützte Waffen Konflikte noch aggressiver machen und Spannungen zwischen Staaten weiter anheizen.

Auch interessant: ChatGPT: KI nennt 20 Jobs, die sie ersetzen wird – ist deiner dabei?

Menschenrechte in Gefahr?

Auch Massenüberwachung wird durch KI-Technologien immer leistungsfähiger – eine Gefahr für Freiheitsrechte, besonders in autoritären Staaten. Ohne klare Regeln könnte KI zur unkontrollierbaren Bedrohung für die globale Sicherheit werden.

„Die Streichung der Klausel ‚Schaden‘ aus den KI-Grundsätzen von Google verstößt gegen die International Bill of Human Rights„, meint Assaad. „Darin wird die ‚Sicherheit der Person‘ als eine Schlüsselmaßnahme genannt.“ Es sei besorgniserregend, dass ein kommerzielles Technologieunternehmen eine Klausel über Schaden entferne.

Trotzdem behauptet Google, dass seine KI-Technologien weiterhin mit internationalen Gesetzen und Menschenrechten im Einklang stehen würden. Doch die neuen, schwammigen Formulierungen lassen viel Raum für Interpretation. Human Rights Watch kritisiert den Schritt und wirft dem Konzern vor, nicht transparent zu machen, wie er seine Produkte im Einklang mit ethischen Standards halten will.

Auch interessant: Wann sterbe ich? Neue App soll die Antwort liefern

Blick nach Deutschland und Europa

Auch in Europa, insbesondere in Deutschland, gewinnt der Einsatz von Künstlicher Intelligenz (KI) im militärischen Bereich zunehmend an Bedeutung. So plant Deutschland, noch in diesem Jahr 6.000 moderne, KI-gestützte Kamikaze-Drohnen des Typs HX-2 an die Ukraine zu liefern. Diese Drohnen, entwickelt vom süddeutschen Unternehmen Helsing, verfügen den Herstellerangaben zufolge über eine Reichweite von bis zu 100 Kilometern und sind dank ihrer KI-Fähigkeiten in der Lage, autonom Ziele zu identifizieren und anzusteuern.

Der AI Act der Europäischen Union (EU) wurde am 1. August 2024 verabschiedet und ist seitdem in Kraft. Dieses weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz verfolgt einen risikobasierten Ansatz, bei dem die Vorschriften je nach Risikostufe der KI-Anwendung variieren.

Ziel ist es, sicherzustellen, dass KI-Systeme verantwortungsvoll entwickelt und eingesetzt werden, wobei der Schutz der Grundrechte und der Gesundheit der Bürgerinnen und Bürger im Vordergrund steht. Allerdings sind militärische Anwendungen von KI explizit vom Anwendungsbereich des AI Acts ausgenommen, da deren Regulierung dem Völkerrecht unterliegt.

Auch interessant: „Stecker ziehen“: Eine KI-Fähigkeit besorgt selbst Experten

Herausforderungen für Ethik und Recht

Auch diese Entwicklungen werfen wichtige ethische und rechtliche Fragen auf. Während die Integration von KI in militärische Systeme potenziell die Effizienz und Präzision von Operationen erhöhen kann, besteht die Gefahr, dass die menschliche Kontrolle über lebenswichtige Entscheidungen schwindet.

Das könnte zu unerwarteten Konsequenzen führen und stellt eine Herausforderung für die bestehenden internationalen Rechtsrahmen dar. Es ist daher unerlässlich, dass sowohl nationale Regierungen als auch internationale Organisationen klare Richtlinien und Vorschriften entwickeln, um den verantwortungsvollen Einsatz von KI im militärischen Kontext sicherzustellen.

Auch interessant: KI bedroht Jobs: Laut Studie könnte sie diese 165.000 Stellen ersetzen

„Leitplanken sind heute mehr denn je erforderlich“

Die Entwicklung von KI im Militärbereich schreitet schnell voran, aber es fehlen klare Grenzen. Regierungen müssen internationale Regeln aufstellen, um den Missbrauch von KI für Waffen und Überwachung zu verhindern. Auch Unternehmen müssen für ihre Rolle in dieser Entwicklung zur Verantwortung gezogen werden.

„Solche Leitplanken sind heute mehr denn je erforderlich, da Big Tech immer stärker mit militärischen Organisationen verflochten wird – und die Risiken, die mit KI-gestützter Kriegsführung und der Verletzung von Menschenrechten einhergehen, steigen.“

Zena Assaad

Und es brauche Druck aus der Gesellschaft, damit KI nicht zu einem Werkzeug der Zerstörung werde. Ohne solche Maßnahmen könne die Welt in eine Ära der KI-gesteuerten Kriegsführung abrutschen, mit Folgen, die wir nicht mehr kontrollieren könnten.

Quellen: „Executive Order 14110 – Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence“ (Federal Register, 2023); Meta; Palantir; Andruil; The Conversation; +972 Magazine; Al Jazeera; The International Bill of Human Rights; Human Rights Watch; Helsing; „Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz“ (EUR-Lex, 2024)

Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.

Du willst mehr von uns lesen? Folge uns auf Google News.