Künstliche Intelligenz (KI) scheint mit der Zeit immer neue Bereiche zu erschließen. Auch die deutsche Bundesregierung befasst sich derzeit im Namen der Bundeswehr mit der Entwicklung eines Systems, das bewaffnete Konflikte vorhersagen soll, bevor diese überhaupt begonnen haben. Das „Preview“-Projekt spaltet derweil nicht nur die Öffentlichkeit, sondern auch die verantwortlichen Ministerien selbst.
Unklarheit über den Zweck des „Preview“-Projekts
Während das Außenministerium für die Parameter des Algorithmus lediglich öffentlich zugängliche Daten zu Rate ziehen will, plant das Verteidigungsministerium auch als „Verschlusssachen eingestufte Quellen“ in die Berechnungen einbeziehen. Dies geht aus einer Antwort der Bundesregierung auf eine kleine Anfrage der Linken hervor. Doch wofür soll das Orakel überhaupt verwendet werden?
„Flüchtlinge abzuwehren, Interventionen vorzubereiten oder Kriege zu gewinnen“, das sind die Vermutungen des Sprechers der Linken-Fraktion und Kritikers Andrej Hunko. Carlo Masala, Berater des Verteidigungsministeriums bei seinem Krisensmodellierungsprojekt und Politikwissenschaftler an der Universität der Bundeswehr München, sieht das anders.
„Kompetenzzentrum Krisenfrüherkennung“
„Das Problem in der Vergangenheit war oft, dass Systeme zur Krisenfrüherkennung hauptsächlich von großen Unternehmen entwickelt wurden, die zwar vielleicht modelltechnisch sehr gut waren, aber wenig sozial- und politikwissenschaftlichen Hintergrund hatten“, erläutert Masala im Gespräch mit Technology Review. „Das soll sich mit dem neuen Zentrum ändern. Dort sollen Sozialwissenschaftler mit ITlern Hand in Hand arbeiten.“
Die Rede ist vom „Kompetenzzentrum Krisenfrüherkennung“, das der Politologe gemeinsam mit seinen Kollegen aufbaut. Es könne künftig für das Verteidigungsministerium, den Bundesnachrichtendienst (BND), das Bundeskanzleramt oder das Auswärtige Amt arbeiten. Außerdem wolle man mit Hilfe des Projekts ein Bewusstsein für potentielle Konflikte schaffen, um mit „nichtmilitärischen Mitteln“ rechtzeitig Eskalationen verhindern zu können.
„Informationen automatisiert auswerten“
„Es geht nicht darum, schon mal Streitkräfte dispositiv zu machen, sondern ressortübergreifend darüber nachzudenken, was man tun kann „, so Masala. Auch wehre er sich gegen die Formulierung, „wir könnten Kriege vorhersagen“. Ihm zufolge werden diese Systeme dies auch nie exakt bestimmen können, „aber sie können Informationen automatisiert auswerten und frühzeitig Hinweise auf krisenhafte Entwicklungen liefern, die in einer Konflikteskalation münden könnten.“
Auch der Plan, Google-Algorithmen als „KI zum Wohle der Gesellschaft“ zu nutzen, geriet kürzlich in die Kritik. Eine konkrete Interpretation und Auslegung derartiger Formulierungen sehen Kritiker problematisch. Unklarheiten will die Bundesregierung jedoch mit ihrer Strategie „AI Made in Germany“ entgegenwirken und zeitgemäße Regelungen schaffen, um Zweifel zu vermeiden.