Seit Huawei 2018 erstmals seine KI-Strategie verkündete, hat der Konzern ehrgeizige Pläne. Die Chinesen wollen nicht weniger als, dass Künstliche Intelligenz in wenigen Jahren eine Allzwecktechnologie ist - wie Eisenbahnen und Elektrizität im 19. Jahrhundert und Autos, Computer und das Internet im 20. Jahrhundert. Ferner plant das Unternehmen die Gründung der neuen Business Unit "Intelligent Automotive Solutions", um die Autohersteller in Sachen autonomes Fahren breiter zu unterstützen. Hierzulande hat Huawei mit Audi einen prominenten Autobauer als Kunden gewonnen, der die KI-Angebote der Chinesen nutzt.
Huaweis KI-Portfolio
Huawei will dabei mit seinem KI-Portfolio einen möglichst breiten Verwendungsbereich abdecken. Dazu gehören etwa die KI-Chips der Ascend-Familie, das neue Trainings- und Inferenz-Framework MindSpore sowie die Chip-Enablement-Layer CANN und die Plattform ModelArts zur Realisierung verschiedener KI-Anwendungen.
Alle diese Fortschritte können aber nicht darüber hinwegtäuschen, wie Eric Xu, Rotating Chairman bei Huawei, einräumt, dass sich die KI noch in einem frühen Entwicklungsstadium befindet und noch eine Reihe von Lücken zu schließen sind. Huawei will dabei das Augenmerk besonders den folgenden zehn Bereichen widmen und dort die Entwicklung vorantreiben:
Höhere Rechenleistung
Ziel ist, die Geschwindigkeit des Trainings komplexer Modelle von Tagen und Monaten auf Minuten oder sogar Sekunden zu minimieren.
Erschwingliche und ergiebige Rechenleistung
Zurzeit sei der Einsatz von Rechenleistung sowohl kostspielig als auch begrenzt, was die Entwicklung von KI einschränkt.
Schaffung eines umfassenden KI-Portfolios
Das Portfolio sollunterschiedliche Anforderungen von Unternehmen erfüllen und gleichzeitig den Schutz der Privatsphäre der Benutzer gewährleisten. Mit diesem Portfolio könne KI in jedem Bereich eingesetzt werden, nicht nur in der öffentlichen Cloud.
Investitionen in grundlegende KI-Algorithmen
Algorithmen der Zukunft sollten dateneffizient sein, also mit weniger Dateneinsatz dieselben Ergebnisse liefern. Sie sollten außerdem energieeffizient sein, also dieselben Ergebnisse mit Einsatz von weniger Rechenleistung und Energie erzielen.
Verwendung von MindSpore und ModelArts
Mit Hilfe der beiden Tools will Huawei KI zunehmend automatisiert entwickeln und die Abhängigkeit von menschlicher Arbeitsleistung verringern.
Weitere Verbesserung der Modellalgorithmen
Eine Verbesserung der Algorithmen sei notwendig, um für die industrielle Nutzung anwendungsbereite KI zu schaffen, die unter Realbedingungen ihre Leistung bringt, nicht nur in Testsituationen.
Entwicklung eines Kreislaufsystems in Echtzeit
Um Modell-Updates durchzuführen und sicherzustellen, dass KI-Anwendungen in Unternehmen weiterhin mit Optimalleistung laufen, sei Echtzeitfähigkeit gefragt.
Maximierung des Werts von KI
Durch die Förderung von Synergien mit anderen Technologien wie Cloud, IoT, Edge Computing, Blockchain, Big Data und Datenbanksystemen soll der Wertbeitrag der KI erhöht werden.
Entwicklungskompetenz
Der Einsatz von KI sollte zur Grundkompetenz aller Anwendungsentwickler zählen - ebenso bei Beschäftigten im IKT-Bereich. Zurzeit könnten nur hochqualifizierte Fachkräfte mit KI arbeiten.
Mehr Investitionen in ein offenes KI-Ökosystem
Gleichzeitig sollte die nächste Generation von KI-Talenten gefördert werden, um der wachsenden Nachfrage nach Fachkräften mit KI-spezifischen Fähigkeiten gerecht zu werden.
Die KI-Prozessoren
Zumindest in Sachen Rechenleistung hat Huawei bereits einen Schritt getan. Laut Unternehmensangaben ist der jetzt vorgestellte Ascend 910 der leistungsfähigste KI-Prozessor der Welt. Xu zufolge ist der Prozessor doppelt so schnell wie vergleichbare Nvidia-Lösungen und soll dabei nur die Hälfte an Energie benötigen. Huawei gibt die Leistung des Chips mit 256 TeraFLOPS sowie 512 TeraOPS an. Es ist derzeit das Flaggschiff der Ascend-Familie, zu der als Einstiegsmodell der eher für den Edge-Bereich konzipierte Ascend 310 zählt.
2020, spätestens 2021 soll der Ascend 610 dann die Reihe ergänzen. Sein Einsatzgebiet sieht Huawei im Bereich Mobile Data Center sowie im Data Center. Der jetzt vorgestellte Ascend 910 wiederum eignet sich aus Sicht der Chinesen vor allem für das AI-Training, wobei besonderen Wert auf die audiovisuellen Fähigkeiten des Chips gelegt wurde.
KI-Anwendungen
Mit etwas Phantasie ergibt sich so ein breites Einsatzgebiet für den Chip. Seine Trainingsfähigkeit könnte etwa in Ethernet Switches genutzt werden, um den Port-Durchsatz drastisch zu steigern. Dadurch dass der Prozessor das Verkehrsverhalten an den einzelnen Port lernt, müsste er nicht erst horchen, ob die Leitung frei ist, sondern könnte auf Basis seines Erlernten schneller senden. Und die Audiomöglichkeiten werden bereits genutzt, um illegale Holzeinschläge im Wald zu erkennen. Hierzu lernt der KI-Prozessor zuvor die normale Geräuschkulisse des Waldes und kann dann bei Anomalien Alarm schlagen.
Vielfältig lassen sich zudem die Videofunktionen des Prozessors verwenden. In Norwegen nutzt man diese etwa in Verbindung mit 4G und 5G zur automatischen Kontrolle der Lachszucht. Dort kontrolliert die KI mit Hilfe einer Kamera die Augen und Schuppen der Lachse, um so Krankheiten im Fischbestand frühzeitig zu erkennen. Darüber hinaus überprüft die KI die Schlachtreife der Fische.
Wer angesichts des Leistungsspektrums und den vielfältigen Einsatzmöglichkeiten des KI-Prozessors einfach mit seinem eigenen KI-Projekt loslegen will, den enttäuscht Huawei. Die Chinesen verkaufen ihre KI-Chips nicht einzeln, sondern nur im Rahmen ihrer Lösungen - etwa als Acceleration Cards oder als Server in Form der Atlas-Reihe.
Das KI-Framework MindSpore
Mit dem KI-Framework MindSpore ist für Huawei das eigene KI-Ökosystem vorerst komplett. MindSpore, das im ersten Quartal 2020 als Open Source zur Verfügung gestellt wird, soll die Entwicklung von KI-Anwendungen vereinfachen und es erlauben, eigene Modelle schneller zu trainieren. Hierzu hat das Unternehmen das Designkonzept "KI-Algorithmus als Code" verwendet. Glaubt man Huawei, so umfassen mit MindSpore entwickelte Apps 20 Prozent weniger Kerncodezeilen als Programme, die mit Hilfe von TensorFlow entstanden sind. Zudem sei die Effizienz um 50 Prozent höher.