Als kleine aggregierte Services übernehmen sie bestimmte Aufgaben und bringen damit einen echten Mehrwert hervor: Machine-Learning-Algorithmen. Klickraten erhöhen, Diagnostik verbessern oder Vorhersagegenauigkeit optimieren ist mit dieser Disziplin der Künstlichen Intelligenz (KI) aber nur möglich, wenn ein konkreter und vor allem für den Nutzer verständlicher Use Case dahintersteht. Auch Data Analytics setzt Deep-Learning-Modelle ein.
Dem Anwender nun die Unterschiede der Algorithmen im Detail zu erklären ist nicht nur sehr komplex, es ist aus seiner Sicht häufig gar nicht nötig - gerade weil der zunehmende Einsatz von Künstlicher Intelligenz auch Berufsgruppen betrifft, die damit normalerweise keinerlei Berührungspunkte haben, wie Krankenschwestern oder Fachverkäufer im Einzelhandel. Solange der Algorithmus ihnen dabei hilft, bessere Entscheidungen zum Beispiel bei Absatzprognosen treffen zu können, ist den meisten die Technologie dahinter egal.
Für die Akzeptanz von Maschine Learning ist die Erklärbarkeit des Ergebnisses, also die Transparenz der Entscheidungen, die ein Algorithmus trifft, das A und O. Nur wenn ein Mitarbeiter eines Callcenters auch versteht, warum ihm die KI ein bestimmtes Produkt zum Verkauf vorgeschlagen hat, kann er im Gespräch mit dem Kunden entsprechend argumentieren. Versteht er es nicht, wird er das Tool nicht nutzen.
Die Transparenz von Algorithmusentscheidungen ist vor allem auch dann wichtig, wenn die Anwendung bestimmten Regularien unterliegt, der Algorithmus zum Beispiel niemanden diskriminieren darf. Dass ein Machine-Learning-Algorithmus nicht nur das Leben erleichtern kann, sondern auch einen messbaren Mehrwert bietet, zeigt ein Beispiel aus dem Marketing. Präparate zur Steigerung der Abwehrkräfte etwa lassen sich viel besser verkaufen, wenn ein Kälteeinbruch bevorsteht. Eine gezielte Werbeaussteuerung basierend auf Wetterdaten ist also nicht nur sinnvoll, sie erhöht auch die Klickraten.
- Julia Ertl, Accenture
„Man hat bei Data-Science-Projekten mit Proof of Concepts angefangen, das waren oft isolierte und sehr experimentelle Analysen. Seitdem ist beim Aufbau von IT-Infrastruktur jedoch viel passiert, und die viel größere Herausforderung gilt der tatsächlichen Nutzung der Ergebnisse. Der Knackpunkt ist nun, die IT-Infrastruktur mit der Organisation, ihren Prozessen und vor allem Menschen zusammenzubringen. Dafür müssen zum einen die richtigen Leute mit ins Boot geholt, zum anderen neues Wissen und neue Rollen aufgebaut werden.“ - Dr. Kay Knoche, Pegasystems
„In vielen Fällen ist der Status quo der totale Blindflug, und man macht es sich dadurch schwerer, als es ohnehin schon ist. Wir raten unseren Kunden immer dazu, aus den vorhandenen Daten eine Decision zu machen, damit zumindest eine Action operationalisiert ist. Die Endresultate, die KPIs, kann man permanent gegeneinander messen und dadurch feststellen, welches Modell am Ende am besten performt.“ - Mehmet Yildizoglu, Data Reply
„Es geht darum, wie man mit den verschiedenen Modellen möglichst viel aus dem jeweiligen Use Case rausholen und Mehrwert schaffen kann. Man kann also nicht schon im Vorfeld pauschaliert sagen, welcher Algorithmus den besten Fit für das Problem liefert. Man muss es ausprobieren, und wenn man eine Lösung in Betrieb nehmen will, braucht es mehr als einen reinen Data Scientist. Das ist auch der Grund, weshalb sich dessen Profil ändert: weg von der rein akademischen Betrachtung und hin in Richtung Produktivsetzung, gepaart mit Software-Engineering-Know-how.“ - Manuel Namyslo, SAP
„Es gibt immer noch eine große Lücke zwischen dem Data Scientist und der IT: Modelle, die lokal entwickelt wurden, werden verworfen, nur weil man nicht weiß, wie man diese in seine Systemlandschaft integriert. Die Nachfrage nach einer Plattform ist groß, in der Data Pipelines aufgebaut, Modelle produktiv gesetzt und Workflows hinterlegt werden können. Denn am Ende des Tages müssen sich die Erkenntnisse, die ich aus den Daten gewinne, in den Geschäftsprozessen des Unternehmens widerspiegeln.“ - Walter Obermeier, UiPath
„Face recognition in China ist ein gutes Beispiel dafür, dass es beim Datenschutz immer zwei Betrachtungsweisen gibt. Auf der einen Seite will niemand, dass er irgendwo erkannt wird. Auf der anderen Seite möchte man in Europa auch gerne die Sicherheit haben. Beides zusammen geht aber nicht. Ein Machine Learning Tool nimmt nur die Daten, die man ihm auch zur Verfügung stellt. Die Gefahr geht also nicht vom Machine Learning aus, sondern davon, wann welche Daten wie und zu welchem Zweck verwendet werden dürfen.“ - Dr. Christian Schneider, wetter.com
„Egal was man erfindet, egal wie gut das sein mag – man kann es fast immer für schlechte Dinge missbrauchen. Damit Machine Learning nicht zu Unrecht in Verruf kommt, müssen die Rahmenbedingungen so gesetzt werden, dass der Algorithmus eben nur für die entsprechende Aufgabe eingesetzt wird.“
Informationen zu den Partner-Paketen der Studie Machine Learning
Machine Learning ist Teamwork
Nicht immer lässt sich der Use Case so leicht identifizieren wie in diesen Beispielen. Ein Unternehmen sollte sich dafür immer zuerst auf die Suche nach dem eigenen Schmerzpunkt begeben und sich die Frage stellen, wie sich dieser in Daten umwandeln und eine Lösung dafür schaffen lässt. Dieser Herausforderung begegnet man am besten in Design-Thinking-Workshops, in denen ein Team aus Fachbereich, Management und Endnutzer auf Augenhöhe ihre Anforderungen und Fragestellungen vereint.
Die Domain-Experten, die das Problem beziehungsweise die Geschäftsfragen dahinter wirklich verstehen, müssen ebenso in der Lage sein, an dem System mitzuarbeiten, wie die End-User - nicht nur, weil durch die frühe Einbindung in die Entwicklung die Vertrauensbasis in das System gelegt wird, damit sie es später auch nutzen, sondern auch, weil eine nachträgliche Anpassung des Modells immer mit Mehrkosten verbunden ist.
Bei der Validierung von Anwendungsfällen darf die Erwartungshaltung der Kunden nicht außer Acht gelassen werden. Die Nutzer werden immer anspruchsvoller und erwarten eine gute Customer Experience. Facebook setzt hier mit personalisierter Werbung definitiv Maßstäbe, weshalb ein Hundebesitzer auch auf anderen Plattformen keine Werbung für Katzenfutter mehr akzeptiert. Diesbezüglich wird Machine Learning ein De-facto-Standard werden, wenn Unternehmen Services neu entwickeln oder die bestehenden Services und Prozesse verbessern wollen.
Datenschutz sollte keine Pauschale sein
Das Beispiel Facebook verdeutlicht aber auch die Problematik beim Datenschutz: Die KI hinter der Plattform ist in der Lage, Selbstmorde von Jugendlichen vorherzusagen und entsprechend zu reagieren. Was in den USA erlaubt ist, ist in Europa aus Datenschutzgründen verboten. Der Datenschutz wird hier über einen Kamm geschert, ein Menschenleben mit Konsumverhalten gleichgesetzt. Es wird nicht berücksichtigt, dass es verschiedene Bereiche gibt, die unterschiedlich bewertet werden können.
Damit Domain-Experten in der Lage sind, jeden einzelnen Bereich für sich zu bewerten, braucht es eine Instanz, die entscheidet, wann der Zweck die Mittel heiligt. Und es braucht mehr eindeutige Handlungsempfehlungen. Die DSGVO zum Beispiel legt fest, dass es bei personenbezogenen Daten ein Recht auf Erklärung gibt. Allerdings definiert sie nicht, wie eine solche Erklärung auszusehen hat. Die Rahmenbedingungen, die die eindeutige Verwendung der Daten festlegen, müssen sich auch auf die korrelierenden Daten beziehen, um Missbrauch zu verhindern.
Die Frage, wann welche Daten wirklich verwendet werden dürfen, wird immer eine Diskussion bleiben - schon allein deshalb, weil es zu Umständen kommen kann, unter denen der Einsatz von Machine Learning an sich schon moralisch fragwürdig ist. Fluggesellschaften setzen Machine-Learning-Algorithmen ein, die für die Preisbestimmung auf Angebot und Nachfrage reagieren. Als ein Hurrikan auf die Bahamas zusteuerte, wollten viele Personen den Inselstaat frühzeitig verlassen, weil sie unter Lebensgefahr standen. Der Preis für die Flugtickets stieg natürlich an.
Hierdurch wird deutlich, dass es darauf ankommt, wie viele und welche Daten man einem Machine Learning Tool zur Verfügung stellt. Fließen nur die Daten für Angebot und Nachfrage in das System, kann es nicht auf Sonderfälle reagieren. Man muss sich also frühzeitig überlegen, wie man mit Randfällen umgeht und welche Szenarien eintreten können, und den Algorithmus daraufhin überprüfen - was Aufgabe des Domain-Experten sein sollte.
Neben dem Testen muss man sich auch mit der Frage beschäftigen, wie man das Lernen aufbaut. Selflearning im laufenden Betrieb kann problematisch werden, wie ein Vorfall bei Twitter zeigte, bei dem ein Chatbot plötzlich rassistisch wurde. Wer auf Selflearning setzen will, braucht dringend ein Monitoring. Eine andere Möglichkeit ist, das Modell einzufrieren und nach Bedarf anzupassen. Trainiert man jedoch häufig neu, sind die Prädiktoren oftmals unterschiedlich, führen aber zu einem sehr ähnlichen Ergebnis, dessen Interpretation sehr schwierig wird. Was gestern an der Sonne lag, liegt heute am Regen.
Learning by doing gilt nicht nur für den Algorithmus
In diesem ganzen Szenario ist der eigentliche Algorithmus nur eine kleine Komponente. Gewichtiger sind die Themen Integration und Workflow: Wie lässt sich das System an IT und an die Geschäftsprozesse anbinden? Was soll im System passieren, wenn Machine Learning etwas erkannt, beziehungsweise klassifiziert hat? Die Cloud bietet inzwischen viele gute Lösungen, braucht dafür aber ein ordentliches Gerüst: Die Datenströme müssen regelmäßig reinkommen und überwacht werden, Qualität muss überprüft werden, man muss wissen, wer für die Daten zuständig ist oder wer die Ansprechpartner bei Fragestellungen sind.
Informationen zu den Partner-Paketen der Studie Machine Learning
Dieser Weg ist sehr schmerzvoll und führt auch oft zu Frustration auf Kundenseite. Sie haben bereits viel Geld für Data Science ausgegeben, schaffen es aber nicht, das System in Betrieb zu nehmen. Den einen fällt die mangelnde Datenqualität von früher auf die Füße. Wird ein Modell mit schlechten Daten gefüttert, kann es keine Wunder bewirken. Andere haben ihre Plattform aufgebaut, ohne dabei den Use Case im Blick zu haben.
Und zuletzt gibt es noch diejenigen, die den Anspruch einer perfekten Datenlogistik haben. Verfolgt man das Motto "Perfect ist better than done", wird man allerdings nie fertig. Dabei ist "perfect" überhaupt nicht nötig, um mit einem ersten kleinen Projekt zu starten. Für "done" braucht es nur den Use Case und die Daten, die bereits vorliegen. Denn ob Machine Learning am Ende dafür tatsächlich besser geeignet ist als ein regelbasiertes System, zeigt sich erst am messbaren Ergebnis.
Studie "Machine Learning": Partner gesucht
Zum Thema Machine Learning führt die COMPUTERWOCHE derzeit eine Multiclient-Studie unter IT-Entscheidern durch. Die Studie soll unter anderem zeigen, wofür deutsche Manager (DACH) KI/ML nutzen, wie sie ihre KI/ML-Projekt umsetzen oder wo es bei den Projekten klemmt.
Haben Sie Fragen zu dieser Studie oder wollen Sie Partner werden, dann hilft Ihnen Frau Nicole Bruder (nbruder@idg.de, Telefon: 089 36086 137) gerne weiter. Informationen zur Machine-Learning-Studie finden Sie auch hier zum Download (PDF).