Künstliche Intelligenz (KI) und lernende Systeme werden unseren Alltag und unsere Wirtschaft verändern – und tun es schon heute. Sie unterstützen uns beim Verwalten unserer Flut an digitalen Bildern, bei der Verbesserung von Impfstoffen gegen COVID-19 und bei der Navigation beim Autofahren. In Zukunft können intelligente Systeme den Verkehr optimieren, Krankheiten erkennen oder Roboter in der Pflege oder bei Rettungseinsätzen helfen. Gerade weil die Anwendungsmöglichkeiten von KI-Systemen so vielseitig sind, ist es unerlässlich, dass sie vor Angriffen geschützt, ethisch unbedenklich und ihre reibungslose Funktion sichergestellt sind.
Einer aktuellen Umfrage des Bitkom zufolge wünscht sich eine große Mehrheit der Deutschen eine sichere KI und verlangt, dass KI-Systeme vor ihrer Nutzung besonders gründlich geprüft werden. Inwieweit der Nutzen der KI-Systeme zum Tragen kommt, hängt also vom Vertrauen ab, das die Menschen in sie setzen. Ein Weg zu vertrauenswürdiger Künstlicher Intelligenz kann die Zertifizierung von KI-Systemen sein. Sie ist eine meist zeitlich begrenzte Bestätigung durch unabhängige Dritte, dass vorgegebene ethische und technische Standards, Normen oder Richtlinien eingehalten werden. So stellt die Zertifizierung eine Möglichkeit dar, die Qualität von KI-Systemen sicherzustellen.
KI-Zertifizierung mit Augenmaß
Dennoch sollte das Werkzeug der Zertifizierung von intelligenter Software und Maschinen mit Augenmaß genutzt werden. Zu strenge Kriterien für eine Zertifizierung bedeuten übermäßig hohe Hürden für Entwickler und Anwender und können Innovationen hemmen. Nicht jede KI-Anwendung muss zertifiziert werden. Während ein Großteil der KI-Systeme unbedenklich sein dürfte, wie etwa Algorithmen zur Identifizierung von Spam-Mails, gibt es Anwendungen, die einer genaueren Prüfung unterzogen werden sollten. Hierzu zählen sicherlich medizinische Assistenzsysteme, die Diagnosen und Empfehlungen für die Behandlung von Patienten aussprechen oder Software für autonome Fahrzeuge. Eine zentrale Herausforderung ist also, sich auf eine Zertifizierung zu verständigen, die Sicherheit garantiert und gleichzeitig unsere Innovationskraft erhält.
Lesetipps:
Nur sichere KI-Systeme schaffen Vertrauen
Autonomes Fahren - Alles zur Zukunft der Mobilität
Die Plattform Lernende Systeme nimmt sich der Herausforderung der Zertifizierung von KI an. Sie wurde vom Bundesministerium für Bildung und Forschung (BMBF) und acatech - Deutsche Akademie der Technikwissenschaften 2017 gegründet und beschäftigt sich mit der Frage, wie künstliche Intelligenz im Sinne des Menschen gestaltet werden kann – und was Wirtschaft, Gesellschaft und Politik dazu beitragen können.
Eine gute Grundlage für die Entwicklung von Zertifizierungsverfahren für KI bietet das Weißbuch zu Künstlicher Intelligenz der EU-Kommission. Die Anfang 2020 veröffentlichten Vorschlägen folgen einem risikobasierten Ansatz:
KI-Systeme mit hohem Risiko sollen spezifischen Anforderungen unterliegen, etwa in Bezug auf Diskriminierungs- und Datenschutz.
Für KI-Systeme ohne hohes Risiko soll eine freiwillige Kennzeichnung ermöglicht werden.
Die Bundesregierung unterstützt in einer Stellungnahme die Ansätze der EU-Kommission weitestgehend.
Risikopotenzial und Anwendungskontext beachten
Diesen Ansatz erweitert die Plattform Lernende Systeme um das Konzept der Kritikalität. Das heißt, dass KI-Systeme entsprechend ihres Risikopotenzials bewertet werden, um zu ermessen, ob und inwiefern eine Regulierung notwendig ist. Je höher die Kritikalität, desto eher lässt sich eine starke Regulierung begründen.
Für die Einschätzung der Kritikalität ist zum einen der mögliche immaterielle oder physische Schaden zu berücksichtigen, wie etwa die Gefährdung von Menschen oder ihren Persönlichkeitsrechten, aber auch andere Gefahren wie etwa für die Umwelt. Zum anderen sind die Handlungsoptionen von Menschen zu prüfen. Das meint etwa, welche Kontrollmöglichkeiten der Mensch hat oder wie gut sich der oder die Einzelne der jeweiligen Anwendung entziehen kann, beispielsweise durch Rückgriff auf andere Produkte. Auf dieser Basis können staatliche Prüfstellen ermitteln, welche Produkte oder Prozesse zertifiziert werden müssen – und welche nicht. In nicht reglementierten Bereichen kann sich das Unternehmen für eine freiwillige Zertifizierung entscheiden.
Entscheidend für die Kritikalität ist der Anwendungskontext. Das gleiche System kann in einem Anwendungskontext unproblematisch und in einem anderen höchst kritisch sein. Ein Staubsaugerroboter zum Beispiel kann trotz seines hohen Maßes an Autonomie zunächst als vergleichsweise unproblematisch gelten, sammelt er aber Daten, die er seinem Hersteller zur Verfügung stellt, kann die Bewertung kritischer ausfallen.
- 1. Datenmangel
Datenprobleme gehören zu den häufigsten Gründen für das Scheitern von Artificial-Intelligence-Initiativen. Das belegt auch eine Studie des Beratungsunternehmens McKinsey, die zu dem Schluss kommt, dass die beiden größten Herausforderungen für den KI-Erfolg mit Daten in Zusammenhang stehen. <br /><br /> Demnach haben viele Unternehmen einerseits Probleme damit, ihre Daten richtig einzuordnen, um die Machine-Learning-Algorithmen korrekt programmieren zu können. Wenn Daten nicht richtig kategorisiert werden, müssen sie manuell richtig klassifiziert werden – was oft zu zeitlichen Engpässen und einer erhöhten Fehlerrate führt. Andererseits stehen viele Unternehmen vor dem Problem, nicht die richtigen Daten für das anvisierte KI-Projekt zur Verfügung haben. - 2. Training, das ins Leere läuft
Laut einer Untersuchung von PricewaterhouseCoopers verfügt mehr als die Hälfte der befragten Unternehmen über keinen formalen Prozess für das vorurteilsfreie Training von KI-Systemen. Schlimmer noch: Nur 25 Prozent der befragten Unternehmen würden demnach die ethischen Implikationen eines Artificial-Intelligence-Systems vor der Implementierung priorisieren. <br /><br /> Unternehmen steht eine Vielzahl von Bilddaten-Sets zu Trainingszwecken zur Verfügung – sowohl auf kostenloser als auch auf kommerzieller Basis. Dabei sollten Firmen allerdings unbedingt darauf achten, dass ein solches Datenset auch die für ihre Zwecke relevanten Daten enthält. - 3. Problemfall Datenintegration
In manchen Fällen ist nicht Datenmangel die wesentliche Hürde für den Einsatz von Künstlicher Intelligenz, sondern das genaue Gegenteil: zu viele Daten – an zu vielen Orten. <br /><br /> Solche Datenintegrations-Fauxpas können sich nachhaltig negativ auswirken. Dabei geht es nicht in erster Linie um technische Hürden, sondern beispielsweise darum, Compliance- und Datenschutzanforderungen gerecht zu werden. - 4. Datenunterschiede
Wenn Unternehmen für das Training von Artificial-Intelligence-Systemen nicht auf aktive, transaktionale sondern auf historische Daten zurückgreifen, entstehen Probleme. Denn ein System, das auf Grundlage eines historischen Snapshots trainiert wurde, wird im Zusammenspiel mit Echzeit-Daten nicht besonders zuverlässig performen. <br /><br /> Nach Ansicht von Andreas Braun, Managing Director und Partner bei der Boston Consulting Group, können Sie diese Problemstellung vermeiden, indem Sie Ihre Data Scientists aus dem Silo holen: Insbesondere wenn es um KI-Modelle geht, die mit Live-Daten arbeiten, bietet sich eine direkte Integration in die Produktionsumgebung an – diese geht im Regelfall auch wesentlich schneller vonstatten. - 5. Unstrukturierte Daten
Laut einer aktuellen Umfrage von Deloitte verlassen sich 62 Prozent der Unternehmen immer noch auf Spreadsheets – nur 18 Prozent profitieren bereits von unstrukturierten Daten wie Produktbilder, Audiodateien von Kunden oder Social-Media-Kommentare. Dazu kommt, dass viele der historischen Datensätze in Unternehmen den für den KI-Einsatz nötigen Kontext vermissen lassen. <br /><br /> Dabei kommt das Beratungsunternehmen auch zu der Erkenntnis, dass Unternehmen, die unstrukturierte Daten nutzen, ihre Geschäftsziele im Schnitt um 24 Prozent übertreffen konnten. - 6. Kulturelle Mangelerscheinungen
Daten außen vorgelassen, sind es vor allem organisatorische Herausforderungen, die dem Erfolg mit Künstlicher Intelligenz entgegenstehen. Die Mitarbeiter aus den Fachbereichen müssen direkt mit den Kollegen aus der Technik zusammenarbeiten und der übergeordnete Kontext sollte dabei stets im Fokus stehen.
Zudem stellt sich die Frage, an welchen Kriterien sich die Zertifizierung orientieren soll. Im Impulspapier der Plattform Lernende Systeme wurden dazu ein Katalog von Mindestkriterien und ein Katalog für darüber hinausgehende Kriterien erarbeitet. Zur Überprüfung der Mindestkriterien sollten KI-Systeme unter anderem auf ihre Transparenz und Nachprüfbarkeit, auf ihre Sicherheit und Zuverlässigkeit untersucht werden. Nicht-intendierte Folgewirkungen auf den Menschen, andere Systeme oder die Umwelt müssen ausgeschlossen werden können. Die Privatheit und die Persönlichkeit müssen unter allen Umständen geschützt werden, zudem müssen Gleichheit und Diskriminierungsfreiheit gewahrt werden. Weiter muss der Mensch zu einer selbstbestimmten Nutzung des KI-Systems in der Lage sein.
Als darüber hinausgehende Kriterien, im Sinne einer „Zertifizierung plus“, kommen etwa die Menschenzentrierung oder die Nutzerfreundlichkeit eines KI-Systems in Frage sowie die Systemoperabilität oder die Begrenzung der Systemfunktionalität. Auch Nachhaltigkeit könnte ein weiteres Kriterium darstellen.
Lesetipp: Nachhaltigkeit in Unternehmen
Herausforderung: Dynamik von KI-Systemen
Für die Zertifizierung stellt die Eigenschaft von lernenden Systemen, sich kontinuierlich selbstständig weiterzuentwickeln, eine besondere Herausforderung dar. Die Zertifizierung sollte durchgeführt werden, bevor das KI-System in der Praxis zum Einsatz kommt. Das KI-System wird unter Umständen einige Zeit nach seiner Inbetriebnahme den Kriterien der Zertifizierung nicht mehr gerecht. Deshalb sollen KI-Systeme in regelmäßigen Abständen rezertifiziert werden.
Es stellt sich allerdings die Frage, wann eine Zertifizierung wiederholt werden muss. Es sollte vermieden werden, das System nach jedem Update oder jeder Weiterentwicklung re-zertifizieren zu müssen. Bestehende Zertifizierungssysteme für Informationstechnologien sind oft zu träge. In der Folge werden IT-Systeme teilweise nicht weiterentwickelt, weil die damit verbundene erneute Zertifizierung zu aufwändig ist. Lernende KI-Systeme verändern sich aber nicht nur bei Updates. Ein gutes Zertifikat für KI muss diese Dynamik berücksichtigen und seine Gültigkeit unabhängig vom technologischen Fortschritt bewahren. Beispielsweise könnte man die Re-Zertifizierung auf einzelne Teile oder Module beschränken.
Die Zertifizierung sollte ein dauerhaft offener Prozess sein, sodass auf technologische Weiterentwicklungen reagiert werden kann. Um das zu erreichen, benötigt es Feedback-Mechanismen, die mit Weiterentwicklung umgehen können; außerdem müssen die Zertifizierungsstellen dynamisch verfasst sein. Zudem ist es hilfreich, die Prüfverfahren zu dokumentieren, sodass Erfahrungswerte gesammelt und neue Tendenzen und Entwicklungen frühzeitig identifiziert werden können.
Vertrauen schaffen, Innovationen fördern
KI-Systeme können ihren Nutzen für die Gesellschaft und den Einzelnen nur dann voll entfalten, wenn die Menschen Vertrauen in sie setzen. Die Zertifizierung von KI-Systemen kann deshalb dazu beitragen, die Chancen der Künstliche Intelligenz sicher und gemeinwohlorientiert zu nutzen. Damit dies gelingt, muss die Zertifizierung neben ethischen auch ökonomische Erfordernisse im Blick behalten und darf Innovationen nicht behindern.
Eine Überprüfung der Kritikalität eines KI-Systems ermöglicht eine Zertifizierung mit Augenmaß. Denn unbedenkliche Anwendungen müssen nicht zertifiziert werden. Auch muss die Zertifizierung die für KI-Systeme typische Dynamik in der Weiterentwicklung berücksichtigen. Dann kann Zertifizierung ein Weg sein, die Qualität von KI-Systemen zu sichern und Innovationskraft Deutschlands zu fördern. (bw)