Die Abgeordneten des EU-Parlaments haben sich auf einen ersten Entwurf zur Regulierung des Einsatzes von KI geeinigt. Damit nimmt der AI Act die nächste Verfahrensstufe und soll nun im Weiteren mit den einzelnen Mitgliedsstaaten verhandelt und ausgearbeitet werden. Am Ende soll ein EU-weit geltendes Gesetzeswerk stehen, das den Einsatz von KI-Technologien wie beispielsweise ChatGPT regeln soll.
Im Wesentlichen geht es beim AI Act darum, KI-Systeme in bestimmte Risiko-Klassen einzugruppieren. Das reicht von minimal bis zu Systemen mit hohen Risiken und solchen, die ganz verboten werden sollen. Speziell, wenn es darum geht, dass Entscheidungen eines KI-Systems Folgen für das weitere Leben von Menschen haben, sollen besonders hohe Maßstäbe angelegt werden. Das gilt insbesondere für die Transparenz darüber, mit welchen Daten eine KI für ihre Entscheidungsfindung trainiert wurde und wie die Algorithmen funktionieren, die letztlich eine Entscheidung treffen. Damit wollen die EU-Politiker gewährleisten, dass diese KI-Anwendungen sicher und vertrauenswürdig funktionieren sowie elementare Grundrechte der Menschen nicht verletzen.
Bis ein endgültiges Regelwerk steht, dürfte es allerdings noch viele Diskussionen innerhalb der verschiedenen EU-Gremien geben. Eine einheitliche Linie ist derzeit nicht zu erkennen. Länder wie Italien hatten zuletzt eine härtere Gangart verfolgt und das Generative-AI-Tool ChatGPT von Open AI verboten. Gründe: Fehlende Alterskontrollen für die Nutzung und mögliche Urheberrechtsverletzungen bei den Trainingsdaten. Mittlerweile haben die italienischen Behörden die Verwendung von ChatGPT unter Auflagen wieder erlaubt.
Die anderen EU-Länder hatten den Vorstoß der italienischen Datenschutzbehörden mit großem Interesse verfolgt. Auch in Deutschland wurden Stimmen laut, ChatGPT solle verboten werden, wenn nachgewiesen werden könne, dass das Tool gegen geltende Datenschutzregeln verstoße.
Zu viel Regulierung behindert Innovation
Ein Regelwerk für den Einsatz von KI zu definieren, dürfte indes nicht einfach werden. Die Positionen liegen weit auseinander. Während Verbraucherschützer für scharfe Regeln plädieren, die die Rechte von Bürgerinnen und Bürgern schützen, warnen Wirtschaftsvertreter davor, eine zu harte Regulierung der Technik könne weitere Innovation ausbremsen. Die EU könnte in einer wichtigen Zukunftsbranche den Anschluss verlieren, so die Befürworter einer weniger strengen Auslegung des AI Acts.
Vertreter des Large Scale Artificial Intelligence Open Network (LAION e.V.) forderten in einem offenen Brief die EU-Politiker auf (PDF-Link), maßvoll in der Regulierung von KI vorzugehen. Man begrüße zwar die Absicht, eine KI-Aufsicht einzuführen, heißt es dort. Allerdings müsse eine solche Aufsicht sorgfältig kalibriert werden, um Forschung und Entwicklung zu schützen sowie die Wettbewerbsfähigkeit Europas im Bereich KI zu erhalten. Zu den Unterzeichnern gehören Bernhard Schöllkopf, Direktor am Max Planck Institut für intelligente Systeme in Tübingen, und Antonio Krüger, Leiter der Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI).
Vor allem Open-Source-KI-Modelle dürften nicht überreguliert werden, fordert LAION. Gerade quelloffene Systeme erlaubten mehr Transparenz und Sicherheit rund um den Einsatz von KI. Zudem ließe sich durch Open-Source-KI verhindern, dass einige wenige Konzerne die Technologie kontrollierten und beherrschten. Damit könne ein maßvolle Regulierung auch dazu beitragen, die digitale Souveränität Europas voranzubringen.
Zu wenig Regulierung schwächt Verbraucherrechte
Dagegen fordert der Verbraucherzentrale Bundesverband (vzbv) mehr Rechte für Verbraucherinnen und Verbraucher. Entscheidungen von Konsumenten würden künftig verstärkt durch KI-basierte Empfehlungssysteme wie ChatGPT beeinflusst werden, heißt es in einer Mitteilung der Verbraucherschützer. Um Risiken von generativer KI auszuschließen, müsse der geplante europäische AI Act für starke Verbraucherrechte und die Möglichkeit der unabhängigen Risikobewertung sorgen.
"Das Risiko, dass KI-Systeme zu falschen oder manipulativen Kaufempfehlungen, Bewertungen und Verbraucherinformationen führen, ist hoch. Künstliche Intelligenz ist nicht immer so intelligent, wie es der Name verspricht", sagte Ramona Pop, Vorständin des vzbv. Die Folgen könnten gravierend sein. "Es muss sichergestellt werden, dass Verbraucherinnen und Verbraucher angemessen geschützt werden vor Manipulation, Irreführung und Täuschung, etwa durch KI-gesteuerte Empfehlungssysteme. Unabhängige Wissenschaftler müssen Zugang zu den Systemen erhalten, um deren Risiken und Funktionsweise bewerten zu können."
"Wir brauchen einklagbare individuelle Betroffenenrechte gegenüber KI-Betreibern", so Pop weiter. Menschen müssen ein Recht auf Korrektur und Löschung erhalten, etwa, wenn durch Systeme wie ChatGPT Nachteile durch Rufschädigung entstehen." Der vzbv fordert: Der AI Act muss sicherstellen, dass KI-Anwendungen europäische Gesetze einhalten und europäischen Werten entsprechen.