Die EU-Länder haben sich auf Regeln für den Einsatz und die Entwicklung künstlicher Intelligenz (KI) verständigt. Auf einem Treffen in Brüssel einigten sich die für Telekommunikation zuständigen Minister der Mitgliedsländer auf die Grundzüge des AI Act. Weitere Details müssen in der Folge mit dem Europaparlament verhandelt werden.
Mit den Regeln aus dem AI Act will die EU gewährleisten, dass KI-Systeme sicher und vertrauenswürdig funktionieren sowie elementare Grundrechte der Menschen nicht verletzen. Die EU-Politiker arbeiten bereits seit längerer Zeit an einem Regelwerk für den KI-Einsatz. Schon im April 2021 hat die EU-Kommission einen Vorschlag für den Artificial Intelligence Act vorgelegt.
Social Scoring á la China soll verboten werden
Im Kern geht es darum, den KI-Einsatz für biometrische Erkennungssysteme und zur Bewertung von Menschen auf der Grundlage ihres sozialen Verhaltens oder von Persönlichkeitsmerkmalen zu verbieten oder zumindest scharfen Regeln zu unterwerfen. Grundsätzlich soll die Massenerfassung biometrischer Daten sowie eine darauffolgende Identifizierung einzelner Personen mittels KI verboten werden. Allerdings soll es Ausnahmen geben, beispielsweise bei der Verfolgung von Terroristen und Verdächtigen in Folge schwerer Straftaten. Außerdem steht zur Debatte, ob auch Einwanderungs- und Asylbehörden in bestimmten Fällen auf entsprechende Systeme zugreifen könnten. Ein Social Scoring von Bürgerinnen und Bürgern, wie es beispielsweise die Machthaber in China anwenden, soll dagegen strikt verboten bleiben.
VDE bringt Prüfsiegel für vertrauenswürdige KI
Der AI Act sieht ferner vor, dass KI-Systeme in Risikoklassen eingeordnet werden. Je größer die Gefahren einer missbräuchlichen Anwendung sind, desto höher sollen die Anforderungen sein. Wer gegen die Regeln verstößt, dem drohen hohe Strafen. Vom AI Act ausgenommen werden KI-Anwendungen im militärischen Bereich und für Forschungszwecke.
Buschmann sieht Bedarf zur Nachjustierung
Bis der endgültige Text für das Gesetz zur Regulierung des KI-Einsatzes in Europa steht, dürfte es allerdings noch viele Diskussionen geben. "In einigen Punkten sehe ich noch Bedarf zur Nachjustierung", sagte Bundesjustizminister Marco Buschmann (FDP). Zwar sei der Beschluss ein großer Schritt hin zu vertrauenswürdiger KI in Europa, und die EU befinde sich auf einem guten Weg, hier den weltweit ersten verbindlichen Maßstab zu setzen. Nachbesserungsbedarf sieht Buschmann aber bei der Sicherung der Anonymität im öffentlichen Raum, sowie der Transparenz und der Nachvollziehbarkeit beim Einsatz von KI-Systemen. "Die weiteren Verhandlungen mit dem Europäischen Parlament werden entscheidend sein, um Grundrechte und Rechtstaatlichkeit beim Einsatz von künstlicher Intelligenz umfassend zu wahren."
Redebedarf hat auch die Wirtschaft. Es bestehe die Gefahr, dass durch eine zu starke Fokussierung auf Risiken die KI-Entwicklung in Europa ausgebremst werde, warnt Susanne Dehmel, Mitglied der Geschäftsleitung beim Digitalverband Bitkom. "Künstliche Intelligenz ist eine Technologie, der eine entscheidende Bedeutung für unsere Zukunftsfähigkeit zukommt", so die Bitkom-Sprecherin, es gehe um Wettbewerbsfähigkeit und Wohlstand auf dem Kontinent.
Bitkom: Die Regeln dürfen sich nicht widersprechen
Dehmel zufolge muss sichergestellt werden, dass nur solche Systeme reguliert werden, die durch KI-spezifische Eigenschaften neue Risiken mit sich bringen. Die Risikoklassifizierung sei zu vage, so die Lobbyistin der IT-Branche. Es müsse genau erfasst werden, wo ein hohes Risiko entstehe und wie dieses abzugrenzen sei. Anwendungsfälle dürften nicht pauschal eingestuft werden. Auch bei der geplanten zusätzlichen Regulierung für Systeme mit vielen möglichen Einsatzwecken ("General Purpose AI"), wie Bild- oder Spracherkennung, blieben noch viele offene Fragen.
Vor dem anstehenden Trialog von Rat, Parlament und Kommission mahnt Dehmel an, dass der vorliegende Vorschlag noch praxistauglicher gestaltet werden müsse. Es dürfe nicht zu Widersprüchen mit vorhandenen Regeln und damit zu neuen Unsicherheiten kommen. "In Bereichen wie Medizinprodukte oder Finanzen ergänzt die KI-Verordnung bereits die bestehende umfangreiche Regulierung."
Kein verbesserter Schutz vor schädlichen KI-Systemen
Während sich die Wirtschaft mehr Freiheiten in der KI-Entwicklung wünscht, warnen Verbraucherschützer vor einem zu großzügigen Regelwerk. Die BEUC, eine Dachorganisation verschiedener Verbraucherschutzverbände in den EU-Mitgliedsstaaten, bezeichnete den jüngsten Beschluss der Minister als Enttäuschung. Wichtige Fragen blieben unberücksichtigt, darunter die nach der Gesichtserkennung durch private Unternehmen an öffentlich zugänglichen Orten. Auch seien wichtige Bestimmungen in der Frage, welche Systeme als hohes Risiko eingestuft werden, verwässert worden. "Für die Verbraucher besteht weiter die Gefahr, dass sie nicht genügend Rechte haben, wenn sie automatisierten Entscheidungen unterworfen sind oder mit KI interagieren, auch wenn die Mitgliedstaaten im Rahmen der Verbesserungen zumindest vorgeschlagen haben, Social Scoring durch private Unternehmen zu verbieten", heißt es in einer Mitteilung des BEUC.
COMPUTERWOCHE-Studie: Machine Learning
"Die EU-Mitgliedstaaten lassen die Verbraucherinnen und Verbraucher mit ihrer Haltung im Stich", kritisiert Ursula Pachl, stellvertretende Generaldirektorin des Europäischen Verbraucherverbandes. Konsumenten seien besorgt über die Risiken durch KI und glaubten nicht, dass Behörden eine wirksame Kontrolle ausüben würden. Pachls Fazit: "Die nationalen Regierungen haben es versäumt, den Schutz vor schädlichen KI-Systemen zu verbessern."