Deutsche Startups experimentieren
Davon profitiert zum Beispiel Peat. Das Startup aus Hannover hat die App "Plantix" entwickelt, mit deren Hilfe Gärtner und Bauern mittels eines Fotos automatisch Schädlinge und Krankheiten von Pflanzen erkennen können. Dahinter steckt ein KI-System, das anhand von Bilderkennung ständig dazulernt und seine Genauigkeit in der Erkennung kontinuierlich verbessert. Die App liefert darüber hinaus Tipps, wie der betroffenen Pflanze zu helfen und mit welchen vorbeugenden Maßnahmen sie zu schützen ist. Doch die Vision der Peat-Gründer reicht noch weiter. Mit Hilfe von GPS-Daten der Fotos sollen sich Verbreitungswege von Krankheiten und Schädlingen genauer verfolgen lassen, erläutert Korbinian Hartberger, bei Peat verantwortlich für Business Relations. Zudem könnten Korrelationen mit Geodaten Aufschlüsse geben, wie Bodenqualität oder Wetter mit der Verbreitung von Pflanzenkrankheiten zusammenhängen.
Um Bilderkennung geht es auch bei Hellsicht. Das Startup aus München verfolgt dabei allerdings einen eher generischen Ansatz. CEO Philipp Eulenberg spricht von Deep Learning as a Service. Hellsicht hat sein KI-System darauf ausgerichtet, automatisch Anomalien zu erkennen. Das können Lackschäden in der Autoproduktion, Texturfehler auf Teppichböden oder Auffälligkeiten in Zellkulturen sein. Eulenberg zufolge lässt sich das KI-System jeweils an verschiedene Anwendungsbereiche anpassen. Sein Unternehmen übernimmt dafür die gesamte Projektarbeit, die sich von der Sammlung der Bilder über die Implementierung der KI bis hin zur Aufbereitung der Ergebnisse erstreckt. Dem System reichen die Bilddaten, es braucht keine Metadaten und Label-Informationen. Die KI lernt, wie eine Oberfläche oder ein Objekt normalerweise auszusehen hat, und kann dann selbständig Anomalien erkennen.
Technik für jedermann
Das sind nur einige Beispiele, viele weitere dürften folgen und nicht nur herkömmliche Arbeiten revolutionieren, sondern auch völlig neue Möglichkeiten eröffnen, an die heute noch niemand denkt. Dabei hilft auch die Technik. KI-Technik ist heute längst nicht mehr nur Spezialisten vorbehalten. Beispielsweise positioniert sich Grafikchip-Hersteller Nvidia eigenen Angaben zufolge verstärkt als KI-Computing-Firma. Graphic Processing Units (GPUs) würden sich gerade bei Deep Learning und KI besser schlagen als klassische Compute-Prozessoren. Das liege in erster Linie daran, dass GPUs stark parallelisiert arbeiteten. Noch im Lauf des Jahres soll zudem der speziell für KI-Belange ausgelegte Chip "Xavier" auf den Markt kommen.
- Apache Spark MLlib
Früher als Teil des Hadoop-Universums bekannt, ist Apache Spark mittlerweile ein bekanntes Machine-Learning-Framework. Sein umfangreiches Angebot an Algorithmen wird ständig überarbeitet und erweitert. - Apache Singa
Singa, seit kurzem Teil des Apache Incubator, ist ein Open-Source-Framework, das Deep-Learning-Mechanismen auf große Datenvolumen hin „trainieren“ soll. Singa stellt ein simples Programmierungsmodell für Deep-Learning-Netzwerke bereit und unterstützt dabei diverse Entwicklungsroutinen. - Caffe
Caffe umfasst ein ganzes Set von frei verfügbaren Referenzmodellen für gängige Klassifizierungsroutinen; die gewachsene Caffe-Community steuert weitere Modelle bei. Caffe unterstützt die Nvidia-Programmiertechnik CUDA, mit der Programmteile wahlweise auch durch den Grafikprozessor (GPU) abgearbeitet werden können. - Microsoft Azure ML Studio
Weil die Cloud also die ideale Umgebung für ML-Anwendungen darstellt, hat Microsoft seine Azure-Cloud mit einem eigenen ML-Service auf der Basis von „pay as you go“ ausgestattet: Mit Azure ML Studio können Nutzer KI-Modelle entwickeln und trainieren und anschließend in APIs umwandeln, um diese wiederum Anderen zur Verfügung zur stellen. - Amazon Machine Learning
Amazon Machine Learning arbeitet mit Daten, die in einer Amazon-Cloud wie S3, Redshift oder RDS liegen und kann mithilfe binärer Klassifizierungen und Multiklassen-Kategorisierung von vorgegebenen Daten neue KI-Modelle bauen. - Microsoft DMTK
Das DMTK (Distributed Machine Learning Toolkit) von Microsoft soll ML-Anwendungen über mehrere Maschinen hinweg skalieren. Es ist eher als "Out of the Box"-Lösung gedacht und weniger als Framework - entsprechend gering ist die Anzahl der unterstützten Algorithmen. - Google TensorFlow
TensorFlow basiert auf sogenannten Data-Flow-Graphen, in denen Bündel von Daten („Tensors“) durch eine Reihe von Algorithmen verarbeitet werden, die durch einen Graph beschrieben sind. Die Bewegungsmuster der Daten innerhalb des Systems heißen „Flows“. Die Graphen lassen sich mittels C++ und Python zusammenbauen und via CPU oder GPU verarbeiten. - Microsoft CNTK
Das Microsoft Computational Network Toolkit funktioniert ähnlich wie Google TensorFlow: Neuronale Netze lassen sich durch gerichtete Graphen erzeugen. Microsofts eigener Beschreibung zufolge lässt sich CNTK außerdem mit Projekten wie Caffe, Theano und Torch vergleichen – sei aber schneller und könne im Gegensatz zu den genannten gar parallel auf Prozessor- und Grafikprozessorleistung zugreifen. - Samsung Veles
Das Samsung-Framework ist dazu gedacht, Datensätze zu analysieren und automatisch zu normalisieren, bevor sie in den Produktivbetrieb übergehen – was wiederum durch eine eigene API namens REST sofort möglich ist – vorausgesetzt, die eingesetzte Hardware hat genügend Power. Der Python-Einsatz in Veles umfasst auch ein eigenes Analyse- und Visualisierungstool namens Jupyter (früher IPython) für die Darstellung einzelner Anwendungs-Cluster. - Brainstorm
Brainstorm setzt auf Python, um zwei Data-Management-APIs („Handers“ genannt) bereitzustellen – eine für CPU-Prozessing durch die Bibliothek „Numpy“ und eine für GPU-Verarbeitung via CUDA. Eine benutzerfreundliche GUI ist in Arbeit. - mlpack 2
Die neue Version der in C++ geschriebenen Machine-Learning-Bibliothek mlpack, die erstmals im Jahr 2011 erschien, bringt eine Menge Neuerungen mit – darunter neue Algorithmen und überarbeitete alte. - Marvin
Der Quellcode von Marvin ist sehr übersichtlich - die enthaltenen vortrainierten Modelle (siehe Bild) ermöglichen aber bereits eine umfangreiche Weiterentwicklung. - Neon
Neon von NervanaSystems ist ein Open-Source-Framework, das auf ein- und abschaltbaren Modulen basiert und KI-Prozesse via CPU, GPU oder Nervanas eigener Hardware ermöglicht.
Auch Intel versucht in diesem Markt, mit seinen auf Hochleistung getrimmten Xeon-Chips Fuß zu fassen. Intel hatte bereits im Oktober 2015 Saffron, einen Anbieter von Cognitive-Computing-Plattformen, übernommen. Erklärtes Ziel ist es, KI breit zugänglich zu machen und stärker zu demokratisieren. Viele IT-Größen forcieren derzeit ihre KI-Strategien. IBM baut kontinuierlich an den Fähigkeiten und Funktionen seiner Cognitive-Computing-Plattform Watson. Microsoft mit dem "Cognitive Toolkit" (CNTK) und Google mit "Tensorflow" bieten Deep-Learning-Frameworks als offene Entwicklungsplattformen an. Zudem arbeiten gerade die großen Cloud-Anbieter, neben Google und Microsoft vor allem auch Amazon Web Services (AWS), daran, KI-Services direkt aus der IT-Wolke heraus anzubieten.
KI zum Staunen
Die Fortschritte sind rasant. Angesichts der vielen neuen KI-Möglichkeiten räumte Google- Mitgründer Sergey Brin kürzlich auf dem World Economic Forum (WEF) im schweizerischen Davos ein, dass ihn das Phänomen der künstlichen Intelligenz überrascht habe. Der Manager erzählte, er habe in den 90er Jahren des vergangenen Jahrhunderts dem Thema keine Aufmerksamkeit geschenkt, weil im Grunde damals jeder davon ausgegangen sei, dass KI niemals funktionieren werde. Heute sei es schwer vorauszusagen, wie sich die Dinge weiterentwickeln werden: "Wir erkennen keine Grenzen."
Das wirft Fragen auf, wie man mit KI umgehen sollte – gerade auch hinsichtlich der Auswirkungen auf Arbeit und Gesellschaft. IBM-Chefin Virginia Rometty glaubt an eine Partnerschaft zwischen Mensch und Maschine. Zwar werde KI einige Jobs obsolet machen, die meisten Menschen würden künftig jedoch mit KI-Systemen arbeiten. Microsoft-CEO Satya Nadella plädierte auf der diesjährigen DLD-Konferenz (Digital, Life, Design) Mitte Januar in München dafür, dass KI-Technik nicht allein Sache der großen IT-Unternehmen sein dürfe. Vielmehr müsse die gesamte Gesellschaft von KI profitieren, indem Wachstum und Produktivität angekurbelt würden. Allerdings sieht Nadella noch etliche Herausforderungen zu bewältigen, beispielsweise wie sich die Transparenz und damit das Vertrauen in KI verbessern lasse. Außerdem müsse man sich dringend mit den Folgen für den Arbeitsmarkt beschäftigen.
SAPs Technikvorstand Bernd Leukert warnte, dass sich die Jobprofile massiv verändern würden. Entsprechend müssten sich Ausbildung und Training wandeln. Dafür seien gemeinsame Anstrengungen von Regierung, Verbänden und Unternehmen erforderlich, mahnte Leukert in einem Gespräch mit dem "Handelsblatt". "Momentan habe ich allerdings der Eindruck, dass sich jeder auf den anderen verlässt."