Trainingsbilder für Gefechtsführungssysteme

Microsoft pitcht Dall-E für Militäreinsatz

15.04.2024
Von 


Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.
Einem Medienbericht zufolge hat Microsoft dem US-Militär den Einsatz von OpenAIs KI-Bildgenerierungs-Tool Dall-E vorgeschlagen.
Auch das Militär nutzt bereits KI-Technologie in vielfältiger Weise. Damit ergeben sich auch ethische Probleme.
Auch das Militär nutzt bereits KI-Technologie in vielfältiger Weise. Damit ergeben sich auch ethische Probleme.
Foto: TSViPhoto - shutterstock.com

In einer von "The Intercept" vorgelegten internen Präsentation aus dem Vorjahr mit dem Titel "Generative AI with DoD Data" (PDF) zeigt Microsoft auf, wie das Pentagon die generativen KI-Werkzeuge von OpenAI, einschließlich des populären Textgenerators ChatGPT und des Bildgenerierungs-Tool Dall-E nutzen kann.

Auf einer Seite der Präsentation mit "allgemeinen" Verwendungszwecken von OpenAI auf Bundesebene verweist Microsoft im Bereich "Advanced Computer Vision Training" im Unterpunkt "Battle Management Systems" auf die Möglichkeit, mit Hilfe von Dall-E Bilder für das Training von Gefechtsführungssystemen zu erstellen.

Microsoft geht in der Präsentation nicht näher darauf ein, wie dies geschehen soll. Der Verweis auf das Training dieser Systeme deutet laut "The Intercept" jedoch darauf hin, dass Dall-E genutzt werden könnte, um das Pentagon mit sogenannten synthetischen Trainingsdaten zu versorgen: künstlich erzeugte Szenen, die realem Bildmaterial sehr ähnlich sind. Militärsoftware, die feindliche Ziele am Boden aufspüren soll, könnte zum Beispiel eine große Menge an gefälschten Luftbildern von Landebahnen oder Panzerkolonnen gezeigt bekommen, die von Dall-E erzeugt wurden, um solche Ziele in der realen Welt besser zu erkennen.

Das Microsoft-Dokument stammt dem Bericht zufolge aus umfangreichem Material, das im Oktober 2023 auf einem Seminar des Verteidigungsministeriums zum Thema "KI-Kenntnisse" vorgestellt wurde. Veranstaltet wurde das Event von der U.S. Space Force in Los Angeles. Auf der Veranstaltung präsentierten verschiedene im Bereich Machine Learning tätige Unternehmen, darunter Microsoft und OpenAI, was sie dem Pentagon zu bieten haben.

OpenAI-Richtlinien verbieten Militäreinsatz?

Eine Sprecherin von OpenAI erklärte allerdings gegenüber "The Intercept", dass OpenAI nicht an der Präsentation von Microsoft beteiligt gewesen sei und auch keine Tools an das Verteidigungsministerium verkauft habe. "Die Richtlinien von OpenAI verbieten die Verwendung unserer Tools, um Waffen zu entwickeln oder einzusetzen, andere zu verletzen oder Eigentum zu zerstören", schrieb Liz Bourgeous.

Letztgenannter Punkt stimmt allerdings nur teilweise: Während Microsoft schon seit geraumer Zeit Milliarden mit Verträgen im Verteidigungsbereich verdient, hatte OpenAI bis zum 10. Januar in seinen Nutzungsbedingungen tatsächlich noch einen Passus, der Aktivitäten untersagte, die "ein hohes Risiko für körperliche Schäden bergen". Dazu zählte das Unternehmen ausdrücklich die Entwicklung von Waffen sowie Militär und Kriegsführung. Zum Zeitpunkt der Präsentation hätten die Richtlinien von OpenAI somit eine militärische Nutzung von Dall-E verboten. Damit wäre jede offizielle Nutzung durch das Verteidigungsministerium oder andere staatliche Militärs ausgeschlossen.

In der neuen Richtlinie sieht die Sache jedoch etwas anders aus: Zwar fordert OpenAI seine Nutzer weiterhin auf, "unseren Dienst nicht zu nutzen, um sich selbst oder anderen zu schaden", und nennt als Beispiel die "Entwicklung oder Verwendung von Waffen". Ein pauschales Verbot, die GenAI-Tools für "militärische und kriegerische" Zwecke zu nutzen, sucht man jedoch vergebens.

Dennoch bestritt Bourgeous, dass als Folge der Präsentation ein Vertrag mit OpenAI zustande kam: "Wir haben keine Beweise dafür, dass OpenAI-Modelle in dieser Weise eingesetzt wurden. OpenAI hat keine Partnerschaften mit Verteidigungsbehörden, um unsere API oder ChatGPT für solche Zwecke zu nutzen."