Responsible AI (RAI) wird inzwischen dringender denn je benötigt - um Trust und Akzeptanz zu schaffen, aber auch um die Halluzinationen großer Sprachmodelle (Large Language Models; LLMs) und entsprechend Bias-behaftete Outputs einzudämmen. Unternehmen, die auf effektive Responsible AI setzen:
können schneller innovieren,
besser transformieren und
sind auf künftige KI-Compliance-Erfordernisse besser vorbereitet.
Leider herrscht jedoch vielerorts immer noch Verwirrung darüber, was RAI eigentlich ist und wie das zu realisieren ist. Diese Unklarheit kann drastische Folgen nach sich ziehen: Schlecht umgesetzte Responsible-AI-Initiativen können die Innovationskraft hemmen und neue Hürden schaffen, die zwar Zeit und Geld kosten, das Safety-Niveau aber nicht verbessern. Wenn Responsible AI künftig zum Motor der KI-getriebenen Wertschöpfung werden soll - und nicht zu einem kostspieligen, ineffektiven Zeitfresser - sind (Fehl-)Annahmen unbedingt zu vermeiden.
Im Folgenden lesen Sie, welche Mindsets nicht geeignet sind, RAI-Initiativen auf einen nachhaltigen Erfolgskurs zu bringen - und wie Sie es besser machen.
Mythos #1: "Es geht um Prinzipien"
Sämtliche Tech-Giganten tragen ihre Responsible-AI-Prinzipien mit stolz geschwellter Brust nach außen: Explainability, Fairness, Datenschutz, Inklusivität und Transparenz - um nur ein paar Beispiele zu nennen. Diese RAI-Prinzipien sind inzwischen so verbreitet, dass man meinen könnte, sie bildeten den Kern von Responsible AI. Dem ist aber nicht so. Schließlich agieren längst alle Organisationen anhand von Prinzipien, die im Regelfall mit den oben genannten RAI-Beispielen im Einklang stehen. Welche Organisation würde sich schon auf die Fahnen schreiben wollen, gegen Fairness, Transparenz und Inklusivität zu stehen?
Davon abgesehen sind Prinzipien im Bereich der künstlichen Intelligenz (KI) ebensowenig geeignet, Vertrauen zu erzeugen, wie im realen Leben: Vertrauen Sie darauf, dass eine Discount-Fluggesellschaft Sie sicher ans Ziel bringt wegen ihrer Prinzipien? Oder doch eher, weil sie geschulte Piloten, Techniker und Fluglotsen einsetzt, die strikt definierten Prozessen folgen und Equipment einsetzen, das regelmäßig überprüft wird? Das Herzstück von Responsible AI sind die Menschen, Prozesse und Technologien, die Prinzipen (und deren Durchsetzung) erst ermöglichen. Die Chancen stehen also gut, dass Sie bereits über die richtigen Leitlinien verfügen. Die Herausforderung besteht darin, diese in der Praxis auch umzusetzen.
Mythos #2: "Es geht um Ethik"
Natürlich geht es bei Responsible AI auch darum, KI auf ethische Art und Weise einzusetzen. Aber es geht eben auch um so viel mehr. Überlegungen in Zusammenhang mit Ethik und Fairness betreffen tatsächlich nur eine winzige Teilmenge der KI-Anwendungsfälle. Etwa, wenn es um Credit Scoring oder Lebenslauf-Screenings geht.
Um sicherzustellen, dass diese Use Cases verantwortungsvoll umgesetzt werden, brauchen wir Responsible AI. Aber auch dafür, alle anderen KI-Lösungen sicher und zuverlässig zu entwickeln, einzusetzen und an individuelle Unternehmensanforderungen anzupassen. Die Tools, die sie nutzen, um Explainability, Bias-Checks und Datenschutz zu realisieren, sind also dieselben, die Genauigkeit und Zuverlässigkeit gewährleisten.
Mythos #3: "Es geht um Explainability"
Manche behaupten, es bräuchte Explainability (auch bekannt als Interpretability), um KI vertrauen und die Technologie verantwortungsvoll nutzen zu können. Das ist nicht der Fall: Explainability ist für KI-Trust ebenso wenig notwendig, wie das Wissen um die Funktionsweise eines Flugzeugs, um Vertrauen in den Luftverkehr zu haben (um bei diesem Beispiel zu bleiben). Menschliche Entscheidungsprozesse sind ebenfalls ein gutes Beispiel: Wir können unsere Entscheidungen fast immer begründen - allerdings ist wissenschaftlich erwiesen, dass es sich dabei meist um nachträglich erfundene und vorgeschobene Gründe handelt, die mit den tatsächlichen Ursachen oft wenig zu tun haben.
Explainability in Zusammenhang mit künstlicher Intelligenz meint vielmehr, leicht verständliche "White-Box"-Modelle und Methoden wie LIME und ShAP einzusetzen. Das ist im Wesentlichen wichtig, um KI-Modelle auf ihre Funktionstüchtigkeit zu testen. Im Rahmen von simplen Anwendungsfällen mit leicht identifizierbaren und erklärbaren Mustern kann das dem Trust zuträglich sein. Fallen diese Muster jedoch hinreichend komplex aus, liefert es bestenfalls Hinweise darauf, wie es zu einer Entscheidungsfindung gekommen ist - und schlimmstenfalls völliges Kauderwelsch. Kurz gesagt: Explainability ist "nice to have", aber oft unmöglich auf eine Art und Weise auszuliefern, die den Trust der Stakeholder sinnvoll fördert.
Responsible AI: Darum geht`s wirklich
Letzten Endes ist Responsible AI praktisches Risikomanagement, wenn es darum geht, KI- und Machine-Learning-Modelle zu entwickeln und einzusetzen. Das umfasst:
Business-Risiken (Modelle die schlecht performen oder unzuverlässig sind),
rechtliche Risiken (Compliance-Verstöße) und auch
gesellschaftliche Risiken (Diskriminierung oder Umweltschäden).
Um diese Risiken zu managen, ist eine vielschichtige Strategie mit Responsible-AI-Fähigkeiten in Form von Menschen, Prozessen und Technologien nötig.
Was die Menschen betrifft, geht es darum, die für RAI verantwortlichen Führungskräfte zu befähigen und Praktiker sowie Anwender darin zu schulen, KI verantwortungsvoll zu entwickeln, zu managen und einzusetzen.
In Bezug auf Prozesse geht es darum, den gesamten Lebenszyklus - vom Datenzugriff über das Modelltraining bis hin zu Deployment, Monitoring und Retraining - zu steuern und zu kontrollieren.
Was die Technologie angeht, kommt Plattformen eine besondere Bedeutung zu. Sie unterstützen Menschen und ermöglichen Prozesse in großem Umfang und demokratisieren darüber hinaus den Zugang zu Responsible-AI-Methoden. Darüber hinaus setzen sie die Governance für KI-Artefakte durch, sorgen für Track Lineage, automatisieren die Dokumentation, orchestrieren Genehmigungs-Workflows, sichern Daten - und bieten unzählige Funktionen, um RAI-Prozesse zu vereinheitlichen.
(fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.