IBM will die Eintrittsbarriere für Kunden senken, die in ihrem Unternehmen Machine und Deep Learning nutzen wollen. Dabei verwendet Big Blue selbst KI-Tools, die Anwendern helfen sollen, Cloud-Rechenzeiten und damit Kosten zu minimieren, die mit dem Training von KI-Modellen auftreten.
Ruchir Puri, Chefarchitekt von IBM Watson, sieht das größte Hindernis im Zusammenhang mit KI aber nicht in den Kosten für Cloud-Rechenzeiten, sondern im fehlenden Fachwissen rund um Machine und Deep Learning. Entwicklung und Tuning von Modellen bereiteten vielen Firmen Kopfzerbrechen. IBM habe deshalb eine KI vorbereitet, die das Finetuning der Trainings von Kunden optimieren soll. Man wolle die Klientel in ihren Trainings begleiten, den Verbrauch von Rechenressourcen optimieren und den Tuning-Prozess verbessern, sagte Puri. Darum gehe es im neuesten Watson-Studio-Angebot "Deep Learning as a Service".
KI-Initiativen genießen Priorität
IBM hat auch sein Spark Technology Center für Technologien wie Deep Learning und andere KI- Anwendungen geöffnet. Es heißt künftig "Center of Open Source Data and AI Technologies" und soll sich nicht mehr nur mit der quelloffenen Technologie Apache Spark, sondern auch mit dem Kreieren, Bereitstellen und Managen von KI-Modellen befassen.
Die ersten beiden Initiativen des neu aufgestellten Centers wurden bereits angekündigt. So nutzt die "Fabric for Deep Learning" (FfDL) die Containerplattform Kubernetes, um das Management von Rechenressourcen in Deep-Learning-Frameworks zu vereinfachen. FfDL kann Tensorflow-, Caffe-, Caffe2-, Pytorch- und Keras-Workloads über Cloud-Computing-Fabrics (Zusammenstellungen aus CPUs und GPUs) hinweg orchestrieren. Die andere Initiative "Model Asset Exchange" (MAX) ist eine Art Handelsplatz für KI-Trainingsmodelle, damit Firmen die Trainingserfahrungen Dritter nutzen können.