"Künstliche Intelligenz und die Automation des Entscheidens" - unter diesem Titel informierte der MÜNCHNER KREIS e.V. im Rahmen einer Fachkonferenz zu verschiedenen Aspekten von KI. Im Vordergrund stand der praktischer Einsatz, etwa im Rahmen der Energiewende. So erklärte Sven Blankenburg, Senior Consultant bei PricewaterhouseCoopers, wie KI eine präzisere Vorhersage der Stromproduktion in Windkraftanlagen ermöglichte.
Das Problem: Windkraft ist im Vergleich zu Solarstrom viel volatiler in der Produktionsleistung. Konkrete Vorhersagen zur Stromerzeugung sind aber nötig, wenn der Energiebedarf in Deutschland langfristig mit Erneuerbaren gedeckt werden soll. Gelingt das nicht, drohen Unterversorgung oder Netzüberlastung. Da die Leistungsschwankungen der Windenergie-Anlagen von vielen Faktoren abhängen, sind sie jedoch äußerst schwierig zu prognostizieren.
Präzise Vorhersagen der Stromproduktion
Daten zu Windböen, Windgeschwindigkeit und Wetterlage waren nur ein Anfang. Mit ihnen ließ sich die Leistung der Anlagen mit einer Genauigkeit von 58 Prozent voraussagen. Um die Treffsicherheit der Prognose zu erhöhen, speiste das Team um Blankenburg das Vorhersagemodell, das auf künstlichen neuronalen Netzen basiert, zusätzlich mit Daten über den Geschwindigkeitsverlauf von Wind und Böen sowie den Wetterbeschreibungen der letzten vier Stunden. Jetzt betrug die Testgenauigkeit immerhin 62 Prozent. Einen echten Qualitätssprung lieferte aber erst die Einbeziehung von Produktionsdaten der vergangenen vier Stunden in die Vorausberechnung. Damit erreichte die Präzision der Vorhersage 91 Prozent.
Für Helmut Krcmar, Professor für Wirtschaftsinformatik an der TU München und Vorstandsmitglied im MÜNCHNER KREIS, zeigt das Projekt, wie die Art und die Menge der beim maschinellen Lernen verwendeten Daten den Erfolg von KI-Tools beeinflussen. "Gleichzeitig liefert es ein überzeugendes Beispiel dafür, wie KI helfen kann, Herausforderungen der Zukunft wie Energiewende und Klimaschutz zu lösen", so Krcmar.
Stickstoffemissionen von Gasturbinen reduziert
Zum praktischen Nutzen von KI präsentierte auch Michael May, Siemens Corporate Technology, eine beeindruckende Zahl: Um 20 Prozent reduzieren KI-basierende Datenanalysen die Stickstoffemissionen von Gasturbinen, indem sie helfen, deren Betrieb zu optimieren. Das Projekt steht für einen der Megatrends in der Entwicklung von IoT-Geschäftsmodellen: KI wandert aus der Cloud hin zu den Edge-Devices, in diesem Fall zu den Turbinen.
Hier, wie auch in anderen Industrieprozessen - beispielsweise dem autonomen Fahren - müssen Steuerungssysteme so schnell über die Veränderung von Parametern entscheiden, dass keine Zeit für einen Datentransfer in die Cloud und zurück, bleibt. Daraus ergeben sich eine ganze Reihe von Herausforderungen für die weitere Entwicklung KI-basierter Steuerungssysteme.
So gehört die Steigerung der Rechen- und Speicherkapazitäten an den Endpunkten des Industrial Internet, also den Maschinen, Anlagen, Werkzeugen und einzelnen Teilen davon, zu den Maßnahmen, die wohl unverzichtbar sein werden. Gleichzeitig braucht es für manche Szenarien, etwa die zentrale Steuerung verteilter Systeme, eine leistungsfähige Infrastruktur zur Datenübertragung zwischen Anwendungen in der Cloud und den Endgeräten sowie für die Kommunikation der Endgeräte untereinander. Und schließlich müssen KI-Anwendungen lernen, wann welches System welche Entscheidung treffen darf und wann menschliches Eingreifen erforderlich ist. Um den dazu erforderlichen Aufwand zu senken, ist ein Kernziel der KI-Initiativen von Siemens, wiederverwendbare KI-Komponenten zu entwickeln.
Roboter schreiben für Fußballfans ...
"Drei Punkte gingen am Samstag auf das Konto des TSV 1878 Schlieben. Der Gast setzte sich mit einem 2:1 gegen die Reserve von FSV Union Fürstenwalde durch" - Sätze wie diese fassen jedes Wochenende vieltausendfach die Spielverläufe und Ergebnisse von Fußballspielen der Amateurligen zusammen. Geschrieben werden sie von einer KI-Software zur automatischen Textgenerierung. Anders als andere Systeme setzt diese Software nicht einfach Rohdaten zum Spielverlauf in vordefinierte Templates ein. Vielmehr wertet der Algorithmus die aktuellen Daten aus und zieht dabei auch historische Daten heran, etwa zur Tabellensituation der beteiligten Teams. Daraus generiert er einen Plot.
Schließlich verpackt die Maschine die trockenen Fakten regelbasiert in ansprechend formulierte Sätze. Diese Form der automatisierten Erstellung von Gebrauchstexten liefert auf Wunsch auch Zusammenfassungen ganzer Spieltage. Johannes Sommer, Geschäftsführer der Berliner Retresco GmbH, erklärt: "Spielberichte sind nur ein kleiner Teil der Texte, die heute schon regelmäßig automatisiert entstehen. Mit unserer Technologie erstellen Unternehmen unter anderem drei Millionen Produktbeschreibungen pro Monat, mehr als 200.000 Wetterberichte und 25.000 Immobilienexposés pro Tag." Hinzu kommen tausende von Arbeitszeugnissen und hunderte Fonds-Reports. Tendenz: steigend.
... und für Wissenschaftler
Wie auch die Wissenschaft vom Potenzial der KI-basierten Texterstellung profitieren kann, zeigt das Buch mit dem schmucklosen Titel "Lithium-Ion Batteries". Erschienen 2019 bei Springer Nature, gilt es als erstes maschinengeneriertes Buch im Bereich der Chemie. Das Werk entstand in Zusammenarbeit zwischen Springer Nature und Wissenschaftlern an der Goethe-Universität in Frankfurt am Main. Der dazu entwickelte Algorithmus mit dem Namen "Beta Writer", der auch als Autor auftritt, selektiert und verarbeitet automatisch relevante Publikationen, die auf der Plattform SpringerLink veröffentlicht wurden.
Der Algorithmus nimmt ein ähnlichkeitsbasiertes Clustering vor und gliedert Quelldokumente in Kapitel und Abschnitte. Zusammenfassungen auf Grundlage der publizierten Artikel vermitteln einen Überblick über die neuesten Forschungspublikationen zum Thema Lithium-Ionen-Batterien. Hyperlinks stellen eindeutige Verweise auf die Quelldokumente dar. Automatisch erstellte Inhaltsverzeichnisse und Referenzen erleichtern die Orientierung. Eine solchermaßen strukturierte, automatisch generierte Zusammenfassung einer Vielzahl aktueller Forschungsartikel ermöglicht Wissenschaftlern, mit dem schnell wachsenden Informationsaufkommen in vielen Fachgebieten Schritt zu halten.
Gleichzeitig stellen maschinengenerierte Texte die Forscher aber auch vor neue Herausforderungen, insbesondere was die Transparenz der Prozesse und die Nachvollziehbarkeit der Ergebnisse betrifft, betonte Professor Christian Chiarcos von der Goethe-Universtät, der das Projekt in München vorstellte.
Wenn Technik Menschen zusammenführt
Um Chemie geht es auch bei einer KI-Anwendung von Chemistree, allerdings um die zwischenmenschliche. Das Münchner Startup arbeitet mit verschiedenen Algorithmen, etwa dem "Deferred Acceptance Algorithm" der Wirtschafts-Nobelpreisträger Alvin E. Roth und Lloyd S. Shapley, um Menschen zusammenzuführen. Gebraucht wird so etwas beispielsweise bei der Bewerberauswahl, dem Teilnehmer-Matching auf Events oder bei der Zusammenstellung von Teams für ganz bestimmte Aufgaben.
Die Transparenz des Verfahrens sei erfolgskritisch, sagte Rosmarie Steininger, Geschäftsführerin und Gründerin von Chemistree. Außerdem sorge eine Vielzahl von Perspektiven beim Gestalten des Algorithmus dafür, dass Verzerrungen vermieden würden. Am Ende legen zudem die Teilnehmerinnen und Teilnehmer selbst anhand detailliert abgefragter Kriterien die Eigenschaften fest, nach denen ein Match stattfinden soll.
Das System macht dazu Vorschläge, die neben harten Fakten wie Qualifikation oder Berufserfahrung auch die vielen menschlichen Faktoren berücksichtigen, die im Alltag den Fortschritt von Projekten beeinflussen. Eingesetzt wurde das Verfahren von Chemistree bislang unter anderem in der BMW Group und bei der Deutschen Bahn.
Keine KI auf Knopfdruck
Die Zahl der erfolgreichen Einsatzbeispiele, so zeigte die Konferenz des MÜNCHNER KREIS, steigt ständig - und mit ihr auch das Interesse der Unternehmen. Die Analysten von IDC gehen in ihren FutureScape Predictions 2020 davon aus, dass bis 2025 bereits 90 Prozent der neuen Unternehmens-Apps künstliche Intelligenz beinhalten. Auf dem Weg in die KI-Zukunft sei es allerdings nicht damit getan, Technologien und Anwendungen zu entwickeln und dann per Knopfdruck einzuführen, wie der Big-Data- und KI-Spezialist Diethard Frank von Festo ausführte.
Vielmehr müssten sich Unternehmen bewusst werden, dass der Übergang in die neue Welt nicht nur ein Beschleunigen und Flexibilisieren bestehender Prozesse verlange, sondern ganz neue Strukturen brauche. Zum zweiten seien die Erwartungen an KI in den Unternehmen je nach Bereich unterschiedlich. Deshalb sei es erforderlich, zunächst ein gemeinsames Verständnis von KI herzustellen und die Ziele zu benennen, die erreicht werden sollen.
Vor allem im Umfeld von Analytics und Big Data müsse KI entmystifiziert werden. Betriebe, die KI nutzen wollen, müssten fallbezogen prüfen, für welche Use Cases welche Tools einen Mehrwert brächten. Dabei kommt es darauf an, den gesamten Prozess von der Datenquelle über die Datenverarbeitung und -speicherung bis hin zur Auswertung und Weiterverarbeitung mit KI-basierten Werkzeugen zu betrachten. Nur erstklassiger Input ermögliche letztlich erstklassige Ergebnisse.
Wissenschaftler Krcmar unterstrich diesen Aspekt am Rande der Konferenz, indem er sagte: "Auch in Zeiten der KI bleibt die alte Informatiker-Weisheit gültig: Garbage in - Garbage out." Der Erfolg von KI werde vor allem davon abhängen, ob und wie sie die Erwartungen der Anwender erfüllt. Deshalb gehe es jetzt darum, den Unternehmen Orientierung zu geben, was sie von KI erwarten könnten. Gelingt das, so zeigten die Erfahrungsberichte auf der Konferenz des MÜNCHNER KREIS, ist schon eine ganze Menge erreicht.