Laut Nvidia-CEO Jensen Huang bedeutet die ständig steigende Geschwindigkeit und Effizienz von Prozessoren, dass Sam Altman von OpenAI keine sieben Billionen Dollar für seine KI-Chip-Initiative benötigt. "Man kann nicht davon ausgehen, dass man mehr Computer braucht. Es ist abzusehen, dass die Computer schneller werden und daher die Gesamtmenge, die man benötigt, nicht so hoch ist", erklärte Huang auf der Bühne des World Governments' Summit in Dubai.
"Die Computerarchitektur entwickelt sich weiter", widersprach der Nvidia-CEO Altman: "Wenn man nur davon ausgeht, dass die Rechner nicht schneller werden, könnte man zu dem Schluss kommen, dass wir 14 Planeten, drei Galaxien und vier weitere Sonnen brauchen, um das alles zu versorgen."
Laut Digitimes Research wird der globale Halbleitermarkt bis 2023 ein Volumen von einer Billion Dollar erreichen, gegenüber 556 Milliarden Dollar im Jahr 2021. Die Marktforscher gehen davon aus, dass Server und künstliche Intelligenz wichtige Wachstumstreiber für die Branche sein werden - allerdings nicht in einer Größenordnung von sieben Billionen Dollar, da eine Sättigung im PC- und Notebook-Bereich prognostiziert wird.
Aber selbst diese Zahlen von Digitimes müssen möglicherweise aktualisiert werden, da Huang auf der Bühne prophezeite, dass Nvidia bis zum Ende des Jahrzehnts eine Installationsbasis von zwei Billionen Dollar haben wird. "Derzeit sind Rechenzentren im Wert von etwa einer Billion Dollar installiert. Im Laufe der nächsten vier oder fünf Jahre werden wir Rechenzentren im Wert von zwei Billionen Dollar haben, die Software auf der ganzen Welt betreiben werden", so Huang.
Einige Experten sind auch besorgt, dass dieser massive KI-Ansturm ungeheure Mengen an Energie benötigen wird, und die benötigten natürlichen Ressourcen werden "gigantisch" sein.
Sind GPUs die Zukunft der KI?
Die KI-Industrie steht vor einer großen Herausforderung, da ein Mangel an KI-Chips oder GPUs ihr Wachstum behindert. Um hier Abhilfe zu schaffen, hatte Huang bereits angekündigt, einen Vorrat an GPUs für verbündete Länder wie Japan aufzubauen, die "souveräne" KI-Fähigkeiten entwickeln wollen.
Aber was wäre, wenn GPUs nicht die einzige Art von Chip wären, die die Zukunft der KI herbeiführen könnten? Die meisten großen Technologieunternehmen der Welt, darunter Google und Meta, würden ihre eigenen proprietären KI-Chips entwickeln, erklärte Huang auf der Bühne. Der Vorteil von Nvidia sei jedoch, dass es die einzige Architektur ist, die das gesamte Spektrum von der Cloud über Server bis hin zum Edge Computing abdeckt. "Unsere CUDA-Architektur hat die Fähigkeit, sich an alles anzupassen, was kommt", so der Firmenchef weiter: "Weil sie überall verfügbar ist, kann jeder Forscher Zugang zu Nvidia-GPUs erhalten und die nächste Generation der KI erfinden."
Diese Zugänglichkeit bedeute, dass Nvidia der Schlüssel zur "Demokratisierung der KI" ist, erklärte Huang. (mb)
Dieser Artikel basiert auf einem Beitrag der US-Schwesterpublikation Computerworld.