Es wird ernst mit der KI-Regulierung in Deutschland und in Europa. Nachdem das Regelwerk rund die Entwicklung und den Einsatz von KI-Werkzeugen am 12. Juli im Amtsblatt der EU veröffentlicht wurde, tritt der AI Act Anfang August 2024 offiziell in Kraft. Danach bleibt nicht mehr viel Zeit. Bereits nach einem halben Jahr haben betroffene Unternehmen erste Regeln zu befolgen.
In der Branche sieht man der KI-Regulierung mit gemischten Gefühlen entgegen. Während die einen Leitplanken für einen korrekten Einsatz von KI-Tools begrüßen, warnen andere vor einem damit verbundenen Bürokratiemonster und befürchten, dass die Regeln weitere Innovationen ausbremsen könnten. Lesen Sie hier erste Stimmen zum Start des AI Act.
Bitkom: AI Act darf nicht zur Hängepartie werden
Für Bitkom-Präsident Ralf Wintergerst sind auch nach dem Inkrafttreten sowohl auf nationaler als auch auf europäischer Ebene noch viele Fragen ungeklärt. "Ob Deutschland und Europa zu Innovationsstandorten für Künstliche Intelligenz oder zu Nachzüglern werden, hängt entscheidend von der weiteren Ausgestaltung und Umsetzung des AI Acts ab. Die Umsetzung darf nicht zur Hängepartie für Unternehmen werden: Lange Rechtsunsicherheit, unklare Zuständigkeiten und aufwendig bürokratische Prozesse in der Umsetzung des AI Acts würden europäische KI-Innovation behindern. Ziel muss sein, den Einsatz von KI sowohl in Wirtschaft und Verwaltung als auch in der Gesellschaft konsequent voranzubringen. Das kann nur gelingen, wenn die Umsetzung bürokratiearm und praxisnah erfolgt."
Wintergerst fordert von der Bundesregierung, zeitnah einen Vorschlag für ein nationales Durchführungsgesetz zum AI Act vorzulegen. Unternehmen müssten wissen, was auf sie zukommt. Konkret verlangt der Bitkom-Präsident: "Dabei braucht es neben der Ernennung einer zentralen nationalen Behörde ebenso klar geregelte Zuständigkeiten unter den nationalen Marktüberwachungs- und Konformitätsbewertungsstellen. Zudem müssen alle zuständigen Behörden mit ausreichend Personal und Ressourcen ausgestattet werden, um ihren Aufgaben gerecht werden zu können. Nicht zuletzt sollten speziell KMUs und Startups durch eine passgenaue Ausgestaltung der geplanten KI-Reallabore und praxisnahe Hilfestellungen der Behörden im Umgang mit dem AI Act unterstützt werden."
TÜV: Bessere Chancen für KI made in Europe
Der TÜV-Verband begrüßt das Inkrafttreten des europäischen AI Acts und betont, dass mit den Regeln ein Rechtsrahmen für sichere und vertrauenswürdige KI geschaffen werde. "Der AI Act bietet die Chance, vor negativen Auswirkungen von Künstlicher Intelligenz zu schützen und gleichzeitig Innovationen zu fördern. Er kann dazu beitragen, einen globalen Leitmarkt für sichere 'KI Made in Europe' zu etablieren", sagt Joachim Bühler, Geschäftsführer des TÜV-Verbands. "Es ist jetzt wichtig, die Umsetzung effizient und unbürokratisch zu gestalten. Unabhängige Stellen spielen dabei eine wesentliche Rolle, nicht nur im Hinblick auf die verbindlichen Anforderungen, sondern auch im freiwilligen KI-Prüfmarkt."
Unternehmen seien Bühler zufolge gut beraten, sich jetzt mit den Anforderungen vertraut zu machen, insbesondere im Hinblick auf die Übergangsfristen. "Es ist wichtig, abzuschätzen, wie und wo der AI Act ihre Aktivitäten betrifft." Darüber hinaus seien aus Sicht des TÜV-Manns eine einheitliche Interpretation und konsequente Anwendung des risikobasierten Ansatzes entscheidend, damit der AI Act in der Praxis wirksam wird - "hier sind die Mitgliedsstaaten gefordert", so Bühler.
Wie der Bitkom fordert auch der TÜV-Verband eine möglichst effiziente und unbürokratische Umsetzung des Regelwerks. Dafür seien klare Zuständigkeiten und verantwortliche Stellen notwendig, um die Regelungen praktisch umzusetzen. Demzufolge sollten Umsetzungsleitfäden für die Einstufung von Hochrisiko-KI-Systemen vom AI Office (Europäisches KI-Büro) schnellstmöglich veröffentlicht werden, um insbesondere kleinen und mittelgroßen Unternehmen (KMU) Rechtssicherheit zu geben. Darüber hinaus gelte es, neue KI-Risiken sowie die Entwicklung systemischer Risiken von besonders leistungsfähigen Allzweck-KI-Modellen im Blick zu behalten und den Aufbau einer systematischen KI-Schadensberichterstattung voranzutreiben.
GI: Neue gesellschaftliche Herausforderungen durch KI
Die Gesellschaft für Informatik e.V. (GI) will die Folgen des AI Act mit verschiedenen Positionspapieren aus unterschiedlichen Perspektiven ausleuchten. Grundsätzlich begrüße man eine Regulierung im Bereich der künstlichen Intelligenz, betonte GI-Präsidentin Christine Regitz. Schließlich trage die Informatik eine gesellschaftliche Verantwortung. "Im Bereich der künstlichen Intelligenz beobachten wir, dass die von solchen Systemen Betroffenen Unterstützung benötigen und es Regeln für die Entwicklung und Nutzung von KI-Systemen braucht", so Regitz weiter. "Viele gute und notwendige Regeln für den sicheren Einsatz von KI treten mit dem AI Act in Kraft. Die Informatik spielt nun eine wichtige Rolle darin, diese Regeln umzusetzen und Lücken zu adressieren."
Die GI-Verantwortlichen verweisen vor allem auf die moralische Dimension des AI Act. "KI-Systeme stellen unsere Gesellschaft vor qualitativ neue Herausforderungen", konstatiert Christine Hennig, Sprecherin des GI-Fachbereichs Informatik und Gesellschaft. Diese müssten nicht nur technisch, sondern ebenso in rechtlicher, ethischer und sozialer Hinsicht diskutiert werden. "Zentral ist dabei die Frage der Technikfolgenabschätzung", sagt Hennig und fragt: "In welcher digital transformierten Welt wollen wir künftig leben?"
Eine Antwort falle nicht leicht. Der soziale Kontext der Nutzung eines KI-Systems durch Menschen müsse erst noch analysiert und bewertet werden, lautet das Fazit von Ralf Möller, Sprecher des Fachbereichs KI bei der GI. Die Rolle der Regulatoren dabei sieht Möller durchaus kritisch. "Die Technik in ihrer Leistungsfähigkeit zu beschränken oder die Architektur eines Systems zur Grundlage der Regulierung zu machen, erscheint weder zielführend noch übergreifend möglich."
AI Act - der weitere Fahrplan
Bei der Umsetzung des AI Act gelten gestaffelten Übergangsfristen. Ab Anfang 2025 sollen zunächst KI-Systeme verboten werden, die beispielsweise manipulative oder täuschende Techniken einsetzen. Ab dem 1. August 2025 treten Verhaltenskodizes für bestimmte Allzweck-KI-Modelle in Kraft. Die EU-Mitgliedstaaten müssen außerdem nationale Behörden für die Marktüberwachung benennen. Verpflichtende Prüfungen für Hochrisiko-KI in Bereichen wie Kreditvergabe, Personalwesen oder Strafverfolgung sind ab August 2026 erforderlich. Sie betreffen nicht nur KI-Entwickler, sondern auch KI-Anbieter und -Betreiber. Ab 2027 treten die Anforderungen an KI in drittprüfpflichtigen Produkten in Kraft.
EU-AI-Act in Kraft: Das müssen Unternehmen jetzt bei der KI-Nutzung beachten
Das Regelwerk der EU teilt KI-Anwendungen in verschiedene Risikoklassen ein. Systeme mit hohem Risiko, die in Bereichen wie Medizin, kritische Infrastrukturen oder Personalmanagement eingesetzt werden, unterliegen strengen Auflagen und müssen umfassende Anforderungen an Transparenz, Sicherheit und Aufsicht erfüllen. Systeme mit begrenztem Risiko, wie Chatbots, müssen nur Transparenzanforderungen erfüllen, während Systeme mit minimalem Risiko, wie einfache Videospiele, gar nicht reguliert werden. Bei Verstößen drohen Bußgelder von bis zu 15 Millionen Euro oder bis zu drei Prozent des weltweiten Jahresumsatzes.