Intel legt nach. Nachdem die Chinesen mit Huawei und den Ascend-KI-CPUs bislang im Rennen um ein umfassendes Portfolio an spezialisierten KI-Chips 1:0 in Führung lagen, kontert nun Intel mit eigenen, dedizierten KI-Prozessoren. Und will, wie es auf dem Intel AI Summit hieß, die Konkurrenz in Sachen Performance und Leistungsfähigkeit um den Faktor Zehn beziehungsweise Sechs übertreffen. Zudem sollen die KI-Prozessoren die Xenon-CPUs in Servern und Rechnern entlasten und so schnellere und effizientere KI-Anwendungen erlauben. Dies soll die Entwicklung und Bereitstellung von KI-Systemen von der Cloud bis zum Edge beschleunigen.
Intels KI-Portfolio
Neu im Intel Portfolio kommen dabei zwei Nervana Neural Network Processors (NNP): Der NNP-T1000 ist für das Training/Lernen von KI-Anwendungen gedacht, der Inferenz-Prozessor NNP-I1000 für das Verarbeiten von Daten anhand der gelernten Daten. Beide Chips sind die ersten ASICs, die Intel speziell für komplexes Deep Learning entwickelt hat. Ergänzt wird das Portfolio durch die Movidius Vision Processing Unit (VPU) für KI-unterstütze Anwendungen mit Bilderkennung - also etwa der visuellen Qualitätskontrolle in der Fertigung.
Angesichts der neuen KI-Chips wirbt man bei Intel damit, das breiteste KI-Portfolio der Branche zu haben. Eine Darstellung, die man wohl bei Huawei nicht unbedingt teilen wird. Mit seinen KI-Lösungen will Intel in diesem Jahr 3,5 Milliarden Dollar Umsatz erwirtschaften.
Die neuen Nervana NNPs liefert Intel ab sofort aus, während die Movidius VPU in der ersten Jahreshälfte 2020 verfügbar sein sollen. Intel sieht seine NNPs als Teil seines AI-Konzepts auf Systemebene. Die eigentliche Hardware ergänzt Intel wiederum wie die Konkurrenten um einen eigenen Software-Stack, der die Softwareentwicklung vereinfachen soll.
Chips für Facebook und Baidu
Glaubt man Intel, schafft der NNP-T die Balance zwischen Datenverarbeitung, Kommunikation und Speicher und ermöglicht eine nahezu lineare, energieeffiziente Skalierung. Auf diese Weise sei er von kleinen Clustern bis hin zu großen Supercomputern nutzbar. Dagegen eigne sich der NNP-I für intensive multimodale Inferenzen. Beide Produkte seien mit Blick auf die KI-Anforderungen von großen AI-Anwendern wie Baidu oder Facebook entwickelt worden. Facebook will etwa mit seinem Deep-Learning-Compiler Glow die Inferenzberechnungen per NNP-I unterstützen.
Intel kündigte außerdem seine neue DevCloud for the Edge an, die zusammen mit dem Distribution des OpenVINO-Toolkit ein entscheidendes Problem für Entwickler löst. Sie können ihre AI-Lösungen auf einer breiten Palette von Intel-Prozessoren ausprobieren, testen sowie prototypisieren, bevor sie die Hardware kaufen müssen.