Verletzen KI-Modelle Urheberrechte?

Künstler zerren Entwickler vor den Kadi

18.01.2023
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Die Klagen könnten die KI-Zukunft maßgeblich beeinflussen: Künstler und andere Rechteinhaber werfen KI-Entwicklern vor, beim Training ihrer Modelle rechtswidrig geschützte Inhalte zu verwenden.
Kunstwerke zu schaffen und kreativ zu sein, könnte künftig nicht mehr den Menschen allein vorbehalten sein - doch wie eigenständig sind KI-Kreationen?
Kunstwerke zu schaffen und kreativ zu sein, könnte künftig nicht mehr den Menschen allein vorbehalten sein - doch wie eigenständig sind KI-Kreationen?
Foto: Gorodenkoff - shutterstock.com

Die bekannte Bildagentur Getty Images hat in London Klage gegen Stability AI eingereicht. Stein des Anstoßes ist der Text-zu-Bild-Generator Stable Diffusion, den der 2020 gegründete KI-Entwickler aus dem Londoner Viertel Notting Hill im August 2022 vorgestellt hatte. Anhand einfach in natürlicher Sprache übermittelter Anweisungen erzeugt Stable Diffusion Bilder, die wie Zeichnungen, Malereien oder Fotografien aussehen.

Das kann das Deep-Learning-Modell allerdings nur, weil es zuvor mit Hilfe von Millionen anderer Bilder trainiert wurde. Die Verantwortlichen von Getty Images werfen Stability AI vor, im Rahmen dieses Trainings Millionen von urheberechtlich geschützten Bildern und deren Metadaten ohne Lizenz rechtswidrig verwendet zu haben. Die KI-Entwickler hätten ihre eigenen kommerziellen Interessen über die Urheberrechte gestellt und damit die Künstler benachteiligt, heißt es in einem Blog-Beitrag der Agentur.

Getty Images verlangt Lizenz für Trainingsdaten

"Getty Images ist davon überzeugt, dass KI das Potenzial hat, kreative Bestrebungen zu fördern", schreiben die Verantwortlichen der Bildagentur weiter. Dementsprechend habe man Technologieentwicklern Lizenzen für das Training von KI-Systemen erteilt, "und zwar in einer Weise, die die persönlichen und geistigen Eigentumsrechte respektiert". Stability AI habe sich allerdings nicht um eine solche Lizenz von Getty Images bemüht und stattdessen Urheberrechte ignoriert.

Wie der Bildgenerator DALL-E von OpenAI funktioniert

Die Frage, ob willkürlich im Netz gefundene Objekte als KI-Trainingsdaten herhalten dürfen, werden die Gerichte in den kommenden Monaten und Jahren wohl rund um den Globus beschäftigen. Derzeit laufen verschiedene Klagen gegen die Entwickler von Deep-Learning-Modellen wegen der angeblich missbräuchlichen Verwendung urheberechtlich geschützter Inhalte. So hatten bereits die Künstlerinnen Karla Ortiz, Sarah Andersen und Kelly McKernan in den USA geklagt - gegen Stability AI, Midjourney, den Entwickler eines weiteren Bildgenerators, und gegen DeviantArt, eine Plattform auf der sich Bilder generieren sowie KI-Werke im Rahmen eines sozialen Netzwerks präsentieren lassen.

Kläger organisieren sich

Vertreten werden die Klägerinnen von Matthew Butterick, der von einem ausgesuchten Anwaltsteam unterstützt wird. Butterick, ein Programmierer und Rechtsanwalt aus Los Angeles, hat bereits im Herbst 2022 eine Sammelklage gegen Microsoft, GitHub und OpenAI auf den Weg gebracht. Sein Vorwurf: KI-Tools dieser Unternehmen sollen die Urheberrechte von Entwicklern verletzen.

Die Klage zielt in erster Linie auf Microsofts Entwicklungs-Tool Copilot. Das Werkzeug kann mit Hilfe von KI-Technologien selbständig Softwarecode erstellen. Copilot verfolgt und analysiert das Coding und schlägt an passenden Stellen alternative Codeblöcke vor, die die Entwickler dann direkt übernehmen können. Das soll Microsoft zufolge das Programmieren deutlich beschleunigen.

Die Kläger monieren die Art und Weise wie Copilot funktioniert und lernt. Das Tool entwickelt seine Fähigkeiten selbstlernend, indem es Milliarden Zeilen von Softwarecode im Internet, insbesondere auf GitHub, analysiert. Damit würden jedoch die Urheberrechte der Programmierer verletzt, die den übernommenen Code entwickelt haben.

Gretchenfrage: Welche Gesetze oder Regeln gelten?

Butterick und seine Anwälte rufen über eine Internet-Seite andere möglicherweise in ihren Rechten verletzte Künstler und Urheber auf, sich der Klage anzuschließen. Die Kläger kritisieren dort das offenbar mangelnde Unrechtsbewusstsein der Beklagten. Butterick zitiert David Holz, den Gründer von Midjourney, der auf die Frage nach den ethischen Hintergründen von Massenkopien für das KI-Training gesagt haben soll, dass es dazu schließlich keine speziellen Gesetze gäbe.

Des weiteren soll Holz die Frage, ob es Künstlern erlaubt sein sollte, ihre Werke vom Training von KI-Modellen auszuschließen, so beantwortet haben: "Das prüfen wir gerade. Die Herausforderung besteht jetzt darin, herauszufinden, wie die Regeln lauten." Buttericks Replik: "Wir freuen uns darauf, Herrn Holz dabei zu helfen, sich über die vielen Landes- und Bundesgesetze zu informieren, die Künstler und ihre Arbeit schützen."

KI-Entwickler pochen auf "fair use"

Von den beklagten KI-Entwicklern liegt bis dato keine konkrete Stellungnahme zu den kommenden Verfahren vor. In der Vergangenheit beriefen sie sich meist auf den sogenannten "Fair Use". GitHub-Chef Nat Friedman plädierte Ende Juni 2021 in einem Tweet: "Das Trainieren von ML-Systemen auf öffentlichen Daten ist eine faire Nutzung." Der Output gehöre dem Betreiber, genau wie bei einem Compiler. Friedman räumte allerdings Klärungsbedarf ein. "Wir gehen davon aus, dass geistiges Eigentum und KI in den kommenden Jahren eine interessante politische Diskussion auf der ganzen Welt auslösen werden."

Damit beschäftigen werden sich allerdings erst einmal die Gerichte. Zentrale Frage, die es dabei zu klären gilt, dürfte sein, ob die KI-Kreationen als rechtlich eigenständige Werke gelten können oder ob sie als Ganzes beziehungsweise in Teilen zu stark den Ursprungswerken ähneln und damit Urheberrechte verletzen. Die Tatsache, dass in einigen von Stable Diffusion komponierten Bildern Wasserzeichen von Getty Images auftauchten, dürfte von den Richtern jedenfalls wohl eher zugunsten der Urheber ausgelegt werden.