AI Trust Label

VDE bringt Prüfsiegel für vertrauenswürdige KI

26.04.2022
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Ein AI Trust Label soll transparent machen, wie vertrauenswürdig KI-Algorithmen arbeiten. Gemeinsam mit Partnern hat der VDE ein erstes Modell für so ein Prüfsiegel vorgelegt.
Vertrauen entsteht durch Transparenz - nur wenn klar ist, wie ein KI-Algorithmus funktioniert, werden die Menschen der Technik vertrauen.
Vertrauen entsteht durch Transparenz - nur wenn klar ist, wie ein KI-Algorithmus funktioniert, werden die Menschen der Technik vertrauen.
Foto: agsandrew - shutterstock.com

Das Ziel ist ambitioniert: Gemeinsam mit Partnern will der Verband der Elektrotechnik Elektronik Informationstechnik e.V. (VDE) ein international anerkanntes AI Trust Label entwickeln. Ein solcher Prüfstandard soll Aufschluss darüber geben, wie transparent und vertrauenswürdig KI-Algorithmen entwickelt wurden und arbeiten. Nur über einen klar definierten Standard könnten Hersteller und Systembetreiber nachweisen, dass bestimmte ethische Anforderungen eingehalten werden, hieß es in einer Mitteilung des Verbands.

"Das Thema brennt allen unter den Nägeln", sagt Sebastian Hallensleben, Projektleiter und KI-Experte im VDE. "Wir haben gemeinsam mit unseren Projektpartnern eine Systematik entworfen, durch die man eine KI mit realistischem Aufwand prüfen und die Ergebnisse klar in Richtung Markt und Regulierer kommunizieren kann." Mitgearbeitet am "VDE Spec 90012 V1.0" (PDF) haben Bosch als Mit-Initiator sowie Siemens, TÜV Süd, SAP und BASF. Seitens der Wissenschaft waren das iRights.Lab, das Karlsruher Institut für Technologie (KIT), das Ferdinand-Steinbeis-Institut sowie die Universitäten Tübingen und Darmstadt beteiligt.

Bei der Entwicklung des VDE Spec haben die beteiligten Anbieter und wissenschaftlichen Institute auf bereits vorhandenen Ansätzen für eine KI-Ethik aufgebaut. "Wir haben Vorarbeiten wie die der AI Ethics Impact Group berücksichtigt, und natürlich läuft auch ein Abgleich mit den aktuellen Vorgaben der EU", berichtete Christoph Peylo, der bei Bosch das Thema "Digital Trust" verantwortet.

KI-Systematik für mehr Transparenz

Die systematische Grundlage des Projekts bildete das bereits etablierte VCIO-Modell. VCIO steht für Values, Criteria, Indicators und Observables. Auf der obersten Ebene würden Werte (Values) definiert, deren Einhaltung über festgelegte Kriterien (Criteria) überprüft wird, erklären die Projektverantwortlichen. Dies sei möglich über die Beschreibung von Indikatoren (Indicators) und Beobachtungsmerkmalen (Observables).

Wie dieses Modell in der Praxis funktionieren kann, erklärt VDEs KI-Experte Hallensleben: "Für den Wert Transparenz gibt es verschiedene Kriterien, zum Beispiel Herkunft und Charakteristika der Trainingsdaten, die eine KI nutzt, oder die Durchschaubarkeit und Verständlichkeit des Algorithmus. Solche Eigenschaften werden über die in der VDE SPEC vorgestellte Systematik mess- und quantifizierbar in Einklang gebracht."

Was Sie zum Thema KI wissen müssen

Im Rahmen des Projekts wurde ein hierarchisch gegliedertes System entwickelt, das Werte, Kriterien, Indikatoren und Beobachtungsmerkmale umfasst. Für jedes Merkmal gibt es eine Bewertungsskala von A (bester Wert) bis G (schlechtester Wert). Auf die Frage, wie transparent der Prozess der Datensammlung für KI gestaltet ist, würde Antwort A bedeuten: Die Herkunft der Daten ist exakt dokumentiert, inklusive der Personen, die die Daten gesammelt haben, und die Art und Weise, wie die Daten aufbereitet wurden. G würde bedeuten, dass der Prozess der Datensammlung überhaupt nicht dokumentiert ist.

Auf Basis des VDE Spec wollen die Projektbeteiligten bis zum Sommer 2022 das AI Trust Label vorstellen, das Unternehmen für KI-Produkte nutzen können. Am Ende soll das Label je nach Anwendungsfall sowohl eine Eigenerklärung als auch eine Zertifizierung durch unabhängige Instanzen erlauben, was bei besonders risikoreichen Anwendungen erforderlich ist. Wer diese Instanzen sein könnten, ist derzeit noch unklar, genauso wie die Frage, welche offizielle Anerkennung ein solches AI Trust Label finden wird.

KI braucht mehr Vertrauen

Dass es mehr Vertrauen braucht, um KI flächendeckend in verschiedensten Bereichen zum Einsatz zu bringen, ist indes unbestritten. Die Berater von KPMG haben vor einem Jahr insgesamt mehr als 6.000 Menschen in den USA, Kanada, Deutschland, Großbritannien und Australien zum Thema KI-Nutzung befragt. Dabei stellte sich heraus, dass nur etwa ein Viertel (28 Prozent) der Befragten in den fünf Ländern bereit sind, KI im Allgemeinen zu vertrauen. 42 Prozent der befragten Bürgerinnen und Bürger akzeptieren die Technologie, 28 Prozent tolerieren sie.

Die große Mehrheit der Befragten (81 Prozent) meint, dass KI reguliert werden muss und es dafür eine unabhängige KI-Regulierungsbehörde geben sollte (gut 60 Prozent). Etwa zwei Drittel bezeichnen die bisherigen Regelungen und Gesetze als unzureichend, um den Einsatz von künstlicher Intelligenz sicher zu machen. Fast alle Befragten (95 Prozent) fordern, dass an den Einsatz von künstlicher Intelligenz in Unternehmen hohe Standards angelegt werden müssen, beispielsweise in Sachen Datenschutz.