AI Act

EU will KI-Einsatz regulieren

08.12.2022
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
In Europa nehmen die Verhandlungen rund um die Regulierung von KI-Techniken Fahrt auf. Dabei befindet sich die Politik in einem Spannungsfeld zwischen innovationsfreudigen Unternehmen und Verbraucherschützern.
Vielen Menschen ist künstliche Intelligenz unheimlich. Mit klaren Regeln will die EU das Vertrauen in die Technik fördern und dem Einsatz Schranken setzen.
Vielen Menschen ist künstliche Intelligenz unheimlich. Mit klaren Regeln will die EU das Vertrauen in die Technik fördern und dem Einsatz Schranken setzen.
Foto: ktsdesign - shutterstock.com

Die EU-Länder haben sich auf Regeln für den Einsatz und die Entwicklung künstlicher Intelligenz (KI) verständigt. Auf einem Treffen in Brüssel einigten sich die für Telekommunikation zuständigen Minister der Mitgliedsländer auf die Grundzüge des AI Act. Weitere Details müssen in der Folge mit dem Europaparlament verhandelt werden.

Mit den Regeln aus dem AI Act will die EU gewährleisten, dass KI-Systeme sicher und vertrauenswürdig funktionieren sowie elementare Grundrechte der Menschen nicht verletzen. Die EU-Politiker arbeiten bereits seit längerer Zeit an einem Regelwerk für den KI-Einsatz. Schon im April 2021 hat die EU-Kommission einen Vorschlag für den Artificial Intelligence Act vorgelegt.

Social Scoring á la China soll verboten werden

Im Kern geht es darum, den KI-Einsatz für biometrische Erkennungssysteme und zur Bewertung von Menschen auf der Grundlage ihres sozialen Verhaltens oder von Persönlichkeitsmerkmalen zu verbieten oder zumindest scharfen Regeln zu unterwerfen. Grundsätzlich soll die Massenerfassung biometrischer Daten sowie eine darauffolgende Identifizierung einzelner Personen mittels KI verboten werden. Allerdings soll es Ausnahmen geben, beispielsweise bei der Verfolgung von Terroristen und Verdächtigen in Folge schwerer Straftaten. Außerdem steht zur Debatte, ob auch Einwanderungs- und Asylbehörden in bestimmten Fällen auf entsprechende Systeme zugreifen könnten. Ein Social Scoring von Bürgerinnen und Bürgern, wie es beispielsweise die Machthaber in China anwenden, soll dagegen strikt verboten bleiben.

VDE bringt Prüfsiegel für vertrauenswürdige KI

Der AI Act sieht ferner vor, dass KI-Systeme in Risikoklassen eingeordnet werden. Je größer die Gefahren einer missbräuchlichen Anwendung sind, desto höher sollen die Anforderungen sein. Wer gegen die Regeln verstößt, dem drohen hohe Strafen. Vom AI Act ausgenommen werden KI-Anwendungen im militärischen Bereich und für Forschungszwecke.

Buschmann sieht Bedarf zur Nachjustierung

Bis der endgültige Text für das Gesetz zur Regulierung des KI-Einsatzes in Europa steht, dürfte es allerdings noch viele Diskussionen geben. "In einigen Punkten sehe ich noch Bedarf zur Nachjustierung", sagte Bundesjustizminister Marco Buschmann (FDP). Zwar sei der Beschluss ein großer Schritt hin zu vertrauenswürdiger KI in Europa, und die EU befinde sich auf einem guten Weg, hier den weltweit ersten verbindlichen Maßstab zu setzen. Nachbesserungsbedarf sieht Buschmann aber bei der Sicherung der Anonymität im öffentlichen Raum, sowie der Transparenz und der Nachvollziehbarkeit beim Einsatz von KI-Systemen. "Die weiteren Verhandlungen mit dem Europäischen Parlament werden entscheidend sein, um Grundrechte und Rechtstaatlichkeit beim Einsatz von künstlicher Intelligenz umfassend zu wahren."

Die Anonymität im öffentlichen Raum müsse gesichert bleiben, fordert Bundesjustizminister Marco Buschmann von der FDP.
Die Anonymität im öffentlichen Raum müsse gesichert bleiben, fordert Bundesjustizminister Marco Buschmann von der FDP.
Foto: photocosmos1 - shutterstock.com

Redebedarf hat auch die Wirtschaft. Es bestehe die Gefahr, dass durch eine zu starke Fokussierung auf Risiken die KI-Entwicklung in Europa ausgebremst werde, warnt Susanne Dehmel, Mitglied der Geschäftsleitung beim Digitalverband Bitkom. "Künstliche Intelligenz ist eine Technologie, der eine entscheidende Bedeutung für unsere Zukunftsfähigkeit zukommt", so die Bitkom-Sprecherin, es gehe um Wettbewerbsfähigkeit und Wohlstand auf dem Kontinent.

Bitkom: Die Regeln dürfen sich nicht widersprechen

Dehmel zufolge muss sichergestellt werden, dass nur solche Systeme reguliert werden, die durch KI-spezifische Eigenschaften neue Risiken mit sich bringen. Die Risikoklassifizierung sei zu vage, so die Lobbyistin der IT-Branche. Es müsse genau erfasst werden, wo ein hohes Risiko entstehe und wie dieses abzugrenzen sei. Anwendungsfälle dürften nicht pauschal eingestuft werden. Auch bei der geplanten zusätzlichen Regulierung für Systeme mit vielen möglichen Einsatzwecken ("General Purpose AI"), wie Bild- oder Spracherkennung, blieben noch viele offene Fragen.

Susanne Dehmel vom Bitkom mahnt eine genauere Risikoklassifizierung an.
Susanne Dehmel vom Bitkom mahnt eine genauere Risikoklassifizierung an.
Foto: Bitkom

Vor dem anstehenden Trialog von Rat, Parlament und Kommission mahnt Dehmel an, dass der vorliegende Vorschlag noch praxistauglicher gestaltet werden müsse. Es dürfe nicht zu Widersprüchen mit vorhandenen Regeln und damit zu neuen Unsicherheiten kommen. "In Bereichen wie Medizinprodukte oder Finanzen ergänzt die KI-Verordnung bereits die bestehende umfangreiche Regulierung."

Kein verbesserter Schutz vor schädlichen KI-Systemen

Während sich die Wirtschaft mehr Freiheiten in der KI-Entwicklung wünscht, warnen Verbraucherschützer vor einem zu großzügigen Regelwerk. Die BEUC, eine Dachorganisation verschiedener Verbraucherschutzverbände in den EU-Mitgliedsstaaten, bezeichnete den jüngsten Beschluss der Minister als Enttäuschung. Wichtige Fragen blieben unberücksichtigt, darunter die nach der Gesichtserkennung durch private Unternehmen an öffentlich zugänglichen Orten. Auch seien wichtige Bestimmungen in der Frage, welche Systeme als hohes Risiko eingestuft werden, verwässert worden. "Für die Verbraucher besteht weiter die Gefahr, dass sie nicht genügend Rechte haben, wenn sie automatisierten Entscheidungen unterworfen sind oder mit KI interagieren, auch wenn die Mitgliedstaaten im Rahmen der Verbesserungen zumindest vorgeschlagen haben, Social Scoring durch private Unternehmen zu verbieten", heißt es in einer Mitteilung des BEUC.

COMPUTERWOCHE-Studie: Machine Learning

"Die EU-Mitgliedstaaten lassen die Verbraucherinnen und Verbraucher mit ihrer Haltung im Stich", kritisiert Ursula Pachl, stellvertretende Generaldirektorin des Europäischen Verbraucherverbandes. Konsumenten seien besorgt über die Risiken durch KI und glaubten nicht, dass Behörden eine wirksame Kontrolle ausüben würden. Pachls Fazit: "Die nationalen Regierungen haben es versäumt, den Schutz vor schädlichen KI-Systemen zu verbessern."