Cloudera hat die Integration des neuesten Release von Apache Kafka in seine Hadoop-Distribution "Cloudera Enterprise" angekündigt. Das Kafka-Projekt wird unter dem Dach der Apache Foundation vorangetrieben und soll Anwendern ein Werkzeug an die Hand geben, um das wachsende Aufkommen von Streaming-Daten vor allem aus dem Internet of Things (IoT) besser steuern und im Griff behalten zu können.
Unternehmen sollen dem Anbieter zufolge mit der neuen Version verbesserte Sicherheitsfunktionen sowie mehr Möglichkeiten hinsichtlich Mandantenfähigkeit sowie einer vereinfachten Entwicklung von Big-Data-Pipelines erhalten. Unternehmen könnten mit Kafka einen Cluster als zentralen Daten-Backbone einrichten. Dieser lasse sich je nach Anforderung flexibel im laufenden Betrieb erweitern. Kafka sorgt dafür, dass die verschiedenen Datenströme möglichst effizient auf die verschiedenen Systeme im Cluster aufgeteilt werden. Außerdem soll das Tool für ein stabiles Monitoring der Datenströme sowie für sichere Verbindungen zu weiteren Stream-Verarbeitungs- und Datenintegrationswerkzeugen sorgen.
"Nie zuvor waren sichere, zuverlässige Pipelines für Echtzeitdaten wichtiger als heute", sagte Charles Zedlewski, Vice President Produkte bei Cloudera. In allen Branchen ständen Anwender vor großen Herausforderungen: Dabei gehe es darum, riesige Datenmengen aus der zunehmenden Welle von IoT-Geräten aufzunehmen sowie Möglichkeiten zu finden, diese Daten und deren Verläufe in den Enterprise Data Hubs zu sichern und zu steuern. "Mit der direkten Integration der neuesten Version von Kafka in die Cloudera-Plattform können unsere Kunden nun sicherstellen, dass ihre Daten-Pipelines den gleichen stringenten Sicherheitsanforderungen entsprechen wie die übrigen Teile ihrer Unternehmen", verspricht der Cloudera-Manager.