Wer ist eigentlich dafür verantwortlich, wenn die neue KI-App im Unternehmen Mist baut und der mit Large Language Models (LLM) trainierte Chatbot Unsinn erzählt? Natürlich steht jeder Anwender zunächst einmal selbst in der Pflicht. Es ist immer eine gute Idee, Antworten von Chatbots kritisch zu hinterfragen und KI-generierte Prognosen als das zu betrachten, was sie sind - nämlich sehr gute Wahrscheinlichkeitsberechnungen.
Angesichts der gewaltigen Dynamik der Technologien, den zu verarbeitenden Datenmassen und der generellen Blackbox-Mentalität von KI scheint die "menschliche" Überprüfung aber utopisch - und führt am eigentlich Zweck der KI vorbei.
Die IT in der Verantwortung
Kontrollinstanzen für die KI verlagern sich daher zunehmend in die Anwendungen selbst, beziehungsweise müssen als Teil des gesamten KI-Stack zukünftig mitgedacht werden. Kommt ein neues KI-Tool ins Portfolio, gilt es entsprechende Leitplanken in die IT-Infrastruktur zu integrieren. Zudem sind GenAI-Anwendungen keine Inseln. Im Zusammenspiel mit anderen Technologien lassen sie sich auf spezifische Anwendungsbereiche eingrenzen und besser kontrollieren. Betrachtet man das KI-Asset lediglich als weiteren IT-Baustein, trifft die Frage nach der Verantwortlichkeit für Fehlentscheidungen, Ausfälle und Risiken letztendlich - und wieder einmal - die CIOs.
Von rechtlicher Seite ist vorerst mit wenig Beistand zu rechnen. Was KI kann, ist spätestens seit ChatGPT jedem bekannt. Was KI darf, ist dagegen noch unklar. Der vor kurzem verabschiedete Artificial Intelligence Act der EU ist ein erster Versuch, KI-Systeme in Risikokategorien einzuordnen, an denen sich die gesetzlichen Auflagen für Anbieter orientieren. Das Gesetz greift frühestens in zwei bis drei Jahren. IT-Verantwortliche müssen aber jetzt eine GenAI-Strategie entwickeln, wollen sie von der Technologie profitieren und wettbewerbsfähig bleiben.
Frameworks, um GenAI-Anwendungen innerhalb der eigenen IT-Infrastruktur zu nutzen, gibt es viele. Sie alle haben einen zentralen Baustein: die verantwortungsvolle Übernahme (englisch: responsible adoption). Gemeint ist damit ein Katalog aus Top-Level-Kriterien wie Genauigkeit, Erklärbarkeit, Kontext, Sicherheit und Zuverlässigkeit. Wie sich diese Kriterien konkret umsetzen lassen, zeigt die Kombination aus einem Knowledge Graphen und LLM: Der Graph dient als "Navigationssystem", um GenAI den Weg durch die Unmengen an Daten zu weisen, klare Grenzsteine zu setzen und das Risiko von KI-Crashs zu reduzieren.
Kriterium #1: Genauigkeit
LLMs verfahren nach einem probabilistischen Verfahren. Sie ziehen die am häufigsten verwendeten Daten heran, um eine Frage zu beantworten. "Häufig" ist jedoch keinesfalls gleichzusetzen mit "faktisch richtig" oder gar "relevant". ChatGPT zum Beispiel nutzt als Datenquelle das Internet und verlässt sich unter anderem auf soziale Plattformen wie Reddit, wo Nutzer größtenteils unkontrolliert Meinungen und "News" veröffentlichen. Entsprechend oft kommt es zu Falschaussagen und KI-Halluzinationen - also Antworten, die plausibel klingen, aber frei erfunden sind.
Um höhere Genauigkeit zu erzielen, müssen den probabilistischen Schlussfolgerungen von LLMs idealerweise deterministischen Aussagen gegenübergestellt werden. Solche klar definierten Aussagen lassen sich über einen Knowledge-Graphen bereitstellen. Diese bilden Personen, Orte, Ereignisse oder Gegenstände nicht nur als eigenständige Entitäten ab. Sie stellen sie zudem zueinander in Relation. Daten und Datenbeziehen werden also gleichwertig behandelt.
Graph-Algorithmen können daher schneller und zielsicherer Zusammenhänge und Muster aufdecken. So lässt sich zum Beispiel feststellen:
wie stark bestimmte Informationen zusammenhängen, um daraus ihre Relevanz/Wichtigkeit abzuleiten (PageRank);
welche Daten eine Brücke zu anderen Daten, beziehungsweise Daten-Clustern bilden und damit einen höheren Einfluss auf den Informationsfluss besitzen (Betweenness Centrality);
ob Daten tatsächlich verbunden sind, damit darauf folgende Abfragen nicht ins Leere verlaufen und zu "halluzinieren" beginnen (Weakly Connected Components).
Solche Metadaten erlauben es wiederum, eine Priorisierung und Kategorisierung innerhalb der LLM-Trainingsdaten durchzuführen und ihre Genauigkeit zu verbessern. Statt Daten zu verwenden, die lediglich "häufig" vorkommen, werden Daten genutzt, die sowohl "häufig" als auch "relevant", "wichtig" oder "vollständig" sind.
Kriterium #2: Erklärbarkeit
KI-Modelle gleichen oft "Black Boxes": Tatsächlich versteht niemand wirklich, was in ihnen vorgeht. Selbst wenn die Datenquelle klar umrissen ist, lässt sich nicht sagen, welche Daten LLMs für welche Entscheidungen heranziehen und warum. Eine logische Argumentationskette, wenn überhaupt vorhanden, lässt sich nicht einsehen - geschweige denn rekonstruieren. Diese Unsicherheit wirft Fragen in Sachen Compliance und Sicherheit auf.
In Knowledge-Graphen sind Daten als Knoten, die Beziehungen zwischen ihnen als Kanten dargestellt. Jeder Datensatz und jede Information lässt sich mit ihrer Ursprungsquelle verknüpfen - bei Bedarf über mehrere Ebenen und Knotensprünge (Hops) hinweg. Der Datenpfad lässt sich selbst in hochgradig heterogenen Datensätzen visualisieren und im Detail nachvollziehen.
Wo und wann wurden die Daten erstmals erfasst?
Wurde in diese Datenerfassung eingewilligt?
Wo wurden die Daten weiterverarbeitet?
Wo befinden sie sich auf den jeweiligen Systemen und wie und wofür werden die Daten genutzt?
Die Transparenz im Knowledge Graph bildet die Grundlage, um LLMs zitierfähig zu machen und gesetzliche wie unternehmensinterne Richtlinien und Datenschutzvorgaben (allen voran die DSGVO) zu erfüllen.
Kriterium #3: Kontext
Eines der entscheidenden Merkmale von Knowledge-Graphen besteht darin, dass sie über ein inhärentes Organisationsprinzip verfügen (Property-Graph-Modell). Das verleiht Daten eine zusätzliche Strukturebene, die semantischen Kontext schafft. Dazu werden:
relevante Attribute und Datenknoten um eine Abfrage herum verknüpft,
sinnvolle Verknüpfungen zwischen Attributen selbstständig erstellt, sowie
Metadaten ergänzt, um Antworten auf spezifische Probleme zu finden (selbst wenn die Fragestellung vorab unklar ist).
Knowledge-Graphen reichern die LLMs mit Kontextinformationen an - aus dem eigenen Unternehmen sowie mit institutionellem Wissen (etwa Datenbanken von Drittanbietern). Damit lassen sich GenAI-Lösungen hinsichtlich spezifischer Business Cases trainieren. Gleichzeitig erhöht sich die faktische Richtigkeit der Antworten.
Kriterium #4: Sicherheit
Im Unternehmensumfeld müssen GenAI-Anwendungen Datenschutz- und Sicherheitsvorgaben erfüllen. Dazu gehört die Frage, auf welche Daten die LLMs überhaupt zugreifen dürfen und an welche Anwender die daraus resultierenden Antworten weitergegeben werden können. Die Integration von Identity and Access Management (IAM)-Lösungen in den KI-Stack sorgt für ein entsprechendes Enforcement.
Dabei sollte sich die Vergabe weniger an der Position eines Mitarbeitenden als an seiner spezifischen Rolle orientieren. Vor allem da sich Aufgaben und Rechte im heutigen Unternehmensumfeld schnell ändern können und strikte Hierarchien abnehmen. Gefragt ist daher ein detaillierter und agiler IAM-Ansatz, der schnelle Änderungen erlaubt, ohne an Detailgenauigkeit zu verlieren.
In einem Knowledge-Graphen lassen sich solche Zugriffsrechte für jeden einzelnen Datenpunkt (Knoten) festlegen und flexibel anpassen. Vergebene Zugriffsrechte können beispielsweise als Attribut (Property) eines Knoten hinzugefügt werden. Neue Mitarbeitende werden über ein Knoten-Kanten-Modul ergänzt. LLM-basierte KI-Anwendungen können so in Sekundenschnelle darüber entscheiden, ob sie den Zugang bei Anfragen gewähren oder verweigern und beispielsweise nur einen Teilausschnitt offenlegen.
Kriterium #5: Zuverlässigkeit
Die Entwicklung von GenAI ist hochdynamisch. Wie und in welchem Umfang LLMs in Zukunft zum Einsatz kommen, bleibt abzuwarten. In diesem Sinne unterscheidet sich KI nicht von anderen "neuen" Technologien. Als die Cloud vor gut zwanzig Jahren erstmal zu einer praktikablen Lösung in Unternehmen wurde, grub sie tiefe Denkfalten in die Stirn von IT-Verantwortlichen. Heute ist SaaS aus keinem Unternehmen mehr weg zu denken. Und so wie die Cloud Migration sorgfältig geplant sein will, sollte auch der KI-Stack durchdacht und in Hinblick auf zukünftige Eventualitäten konstruiert werden.
Ein absolutes Muss für KI-Anwendungen ist daher hohe Flexibilität, Skalierbarkeit und Performance der Systeme. Gerade die für KI nötigen Datenmassen lassen sich mit relationalen Datenbanken allein nicht mehr verarbeiten. An ihrer Stelle treten Data Warehouses und Data Lakes sowie spezielle NoSQL-Datenbanken. Graph-Datenbanken skalieren in bestimmten Anwendungsszenarien deutlich besser als klassische relationale Datenbanken. Gleichzeitig bietet ihr inhärentes Datenschema ein hohes Maß an Agilität.
Ebenso zentral ist die Interoperabilität von GenAI-Anwendungen mit Cloud- und Datenanbietern. Beispiele sind native BigQuery (für Google), Data Warehouse Connector oder BI Connector. Wie immer sich der KI-Stack zusammensetzt, das Ziel bleibt das gleiche: Kommende Innovationen und Weiterentwicklungen integrieren zu können, ohne bei Null anfangen zu müssen. (fm)
- Andreas Schneider, IBM
„KI ist nur so gut wie die Daten, die sie füttert. Unternehmen benötigen daher eine AI- und Data-Plattform, um Modelle möglichst kontextspezifisch und kollaborativ zu trainieren, zu validieren und zu deployen. Gleichzeitig darf dabei nicht aus den Augen verloren werden, alle Beteiligten auch abzuholen. Dass Veränderungen, beispielsweise durch die Automation von Geschäftsprozessen, nicht immer auf Begeisterung stoßen, ist völlig menschlich. Soziale Aspekte und Ängste muss man deshalb genauso berücksichtigen wie Technologie und eine umfangreiche Governance von KI-Modellen.“ - Daniel Hummel, KI Reply
„Es reicht nicht aus, lediglich theoretisch über KI-Lösungen zu diskutieren und sie zu skizzieren. Stattdessen sollten wir diese Lösungen mithilfe von Mockups simulieren, um ihren Nutzen und ihre Machbarkeit besser zu verdeutlichen. Dank der neuesten Fortschritte in der KI können wir sie schnell in Proof-of-Concepts (PoCs) umwandeln. Dies eröffnet uns die Möglichkeit, sofort auf Veränderungen zu reagieren und den nächsten Schritt in Richtung Realisierung zu gehen. Für mich ist es von zentraler Bedeutung, die uns zur Verfügung stehenden Modelle bestmöglich zu nutzen. Damit können wir in Deutschland eigenständige Innovationen vorantreiben, anstatt die Lösungen anderer zu adaptieren.“ - Michael Koch, Lufthansa Industry Solutions
„Die Nutzung von KI bringt bereits heute viele Vorteile, wir müssen den Umgang damit aber noch erlernen. Die Vision: Wir sollten KI wie ein Flugzeug verwenden. Denn auf dem Weg in den Urlaub vertrauen wir der Technik und machen uns keine Gedanken darüber, wie zum Beispiel ein Triebwerk funktioniert. Der Weg ist sicherlich noch weit, aber mit den derzeit verfügbaren Sprachmodellen und KIs können wir schon heute einfach und verlässlich gewinnbringende Lösungen entwickeln, die aktuelle Sicherheits- und Datenschutzvorgaben berücksichtigen. Eine gute Lösung sollte verwendet werden, egal welche KI im Einsatz ist. Voraussetzung dafür ist, dass sie alle ethischen und gesetzlichen Rahmenbedingungen im Sinne einer Trustworthy AI und des EU-AI-Acts einhält." - Christian Eckstein, MVTec Software
„Der Anteil von KI in Bildverarbeitungssystemen ist niedriger, als man vielleicht vermuten würde. Und das hat einen einfachen Grund: Die Modelle, die unsere Kunden selbst trainieren, müssen lokal ausgeführt werden. Die Idee, dass der Anlagenbetrieb von einer Internetverbindung oder einer Cloud abhängt, ist sehr absurd in der Industrie. Auch, dass Bilddaten von Fehlerteilen zum Beispiel nach aussen geschickt werden, ist für die meisten undenkbar. Weil die Modelle lokal ausgeführt werden, braucht es eine entsprechende Hardware. Eine GPU, die in der Fertigung gekühlt werden muss – auch das ist schwierig. Und schließlich ist KI für die meisten Anwendungen der Bildverarbeitung zu langsam. Die Inspektion von Folie zum Beispiel, die mit zig Metern pro Sekunde durch die Anlage läuft – da käme kein Modell hinterher.“ - Björn Ständer, Oracle
„Ein breites Einsatzgebiet für KI gibt es heute schon im Bereich Gesundheitswesen. Die Kombination aus supervised and unsupervised Leaning erschliesst neue Möglichkeiten im Bereich Diagnose und Behandlung. Dabei werden z.B. Messdaten von Smart Devices mit Modellen von Digital Twins kombiniert, um Erkenntnisse für eine Früherkennung oder neue Behandlungsmethoden zu gewinnen. Der Einsatz anonymisierter Bilderkennung unterstützt das Krankenhauspersonal beim Monitoring von Patienten und alarmiert Pflegekräfte über kritische Situationen – durch eine intelligente Automatisierung mit KI kann das Personal von Routinetätigkeiten entlastet werden – in Zeiten von Fachkräftemangel und steigendem Kostendruck dient der Einsatz von KI dem Wohl Patienten als auch der Kostenoptimierung des Providers.“ - Alexander Siebert, Retresco
„Mit ChatGPT haben wir zum ersten Mal eine White Collar Revolution. Vorher waren es die Kuka-Roboter, welche die Blue Collar Worker in den Fabriken bedroht haben. Nun sind plötzlich die Kreativprozesse betroffen, was Unternehmen vor große Herausforderungen stellt. Sowohl intern, weil die Marketing-Abteilungen um ihre Jobs fürchten, andererseits aber damit arbeiten müssen, um effizient zu bleiben. Aber auch von außen, weil plötzlich eine ganz andere Wettbewerbssituation gegeben ist. Mit KI-Sprachmodellen können kleine 1-Personen-Betriebe viel leichter Geschäftsmodelle aufbauen, welche sehr schnell herkömmliche Angebote bedrohen können.“ - Johannes Bohnet, Seerene
„Selbst vergleichsweise einfache Softwareprojekte entziehen sich durch ihre im wahrsten Sinne des Wortes übermenschliche Komplexität einem holistischen menschlichen Verständnis und damit der strategischen Steuerung durch menschliche Akteure. Seerene nutzt KI einerseits, um aus den Daten, die in den Software-Entwicklungsabteilungen bereits vorhanden sind, die Sichtbarkeit von Software-Produktionsprozessen bis hin zur Managementebene zu erreichen. Zum anderen setzen wir AI direkt in der Software-Entwicklung ein, um Vorhersagen treffen zu können, wo aus den Tätigkeiten heraus eine zukünftige Gefahr besteht, dass dort Fehlerquellen in den Code gelangen könnten.“