Die Auswirkungen der digitalen Transformation sind für viele CIOs inzwischen spürbar: Anwendungen und Infrastruktur müssen schneller provisioniert und skaliert werden. Eine Lösungsvariante sind Composable-Infrastructure-Technologien, die ein flexibles, am Bedarf ausgerichtetes Modell der Infrastruktur im Rechenzentrum ermöglichen.
Um mit der anfallenden Masse an Daten zurechtzukommen, müssen Unternehmen neue Ansätze beim Design der Infrastruktur finden. Denn die schnelle Auswertung der gesammelten Daten ist in einer digitalen Wirtschaft für die Wettbewerbsfähigkeit extrem wichtig. Neue Infrastrukturansätze müssen sich einerseits auf Effizienz konzentrieren, um nicht das IT-Budget zu sprengen.
Anderseits ist Agilität gefordert, um bei Bedarf schnell auf neue Anforderungen der Business-Seite reagieren zu können. Die Unternehmen führen Anwendungen der nächsten Generation ein, um zukunftsfähig zu bleiben, und pflegen gleichzeitig die aktuellen Applikationen weiter, mit denen heute die Umsätze erzeugt werden.
Composable-Infrastructure-Technologien wurden in Hinblick auf diese Herausforderungen entworfen. Sie sind so ausgelegt, dass sie sowohl die aktuellen als auch die kommenden Anwendungen unterstützen. Dadurch helfen sie der IT dabei, den umsatzbringenden Tagesbetrieb besser zu unterstützen und gleichzeitig dem Business den Vorstoß in die Zukunft zu ermöglichen.
Ein wesentliches Merkmal der Composable-Software-Lösungen ist, dass sie Software-defined sind. Das erlaubt einen bestmöglichen Return on Investment bei der Server-Hardware: Rechenleistung, Speicher und Storagewerden nicht nur über Cluster, sondern über das gesamteRechenzentrum hinweg zu Pools zusammengefasst, um die bestmögliche Auslastung, Effizienz und Übersicht zu ermöglichen.
Das leistet Composable Infrastructure
Die IT-Infrastrukturen der aktuellen Generation können starr und in Silos organisiert sein. Für die IT ist es so schwer, schnell auf die Anforderungen der Anwendungen neuer Generation zu reagieren, wenn diese in den operativen Betrieb genommen werden. In dem Rahmen, in dem die Unternehmen diese neuen Applikationen einsetzen, machen sie sich auch einen anwendungszentrischen Ansatz bei der IT zu eigen. Sie schaffen Umgebungen, die ganz neue Ansprüche an Skalierbarkeit, Automatisierung und Flexibilität stellen.
Das Modell erfordert einen Wechsel von statischen und unflexiblen Infrastrukturen hin zu einer Umgebung, die besser ausgelastet, agil und automatisiert ist. Fast jeder CIO spürt bereits eine Auswirkung der digitalen Transformation: Anwendungen und Infrastruktur müssen schneller provisioniert und skaliert werden. Composable-Infrastructure-Technologien ermöglichen ein flexibles, am Bedarf ausgerichtetes Modell der Infrastruktur im Rechenzentrum. Mit einer Composable-Infrastruktur kann die IT:
Systeme optimal konfigurieren und voll auslasten. Das senkt die Kosten für die Bereitstellung der Services. Durch eine Composable-Infrastruktur verbessert die IT ihre Sicht auf die Rechenzentrums-Infrastruktur und auch ihre Kontrolle darüber.
Standard-Server und deren reine Rechenleistung, Speicherkapazität und Netzwerk-Fähigkeiten nutzen. Diese arbeiten am besten, wenn sie in einem Pool zusammengefasst werden.
besser auf die sich dynamisch verändernden und/oder unerwarteten Workload-Anforderungen reagieren, das Wachstum besser planen und eine höhere Service-Qualität bieten.
Zu den Technologien der Composable Infrastructure zählen Software-defined Computing und Software-defined Server (zum Beispiel als virtuelle Maschinen oder Container), Storage (Datei-, Block- und Objekt-orientierte Speicher) sowie Netzwerke (SDN-Technologien). Composable-Lösungen sind dazu entworfen, die Auslastung der vorhandenen Rechenzentrumsinfrastruktur zu optimieren.
Umgesetzt wird das Konzept konkret durch Software-defined Clustering, Virtualisierung bestehender Infrastrukturkomponenten sowie durch die über Software abgebildete Steuerung dieses Assets. Das hat eine höhere Effizienz der IT zu Folge, geringere Investitions- und Betriebskosten sowie mehr Agilität. Diese zeigt sich zum Beispiel darin, dass die IT sich schnell an veränderte Workload-Anforderungen anpassen kann.
- SDN Directions
Entwicklungstrends im Rechenzentrum: Laut IDC zählt SDN neben 100-Gigabit-Ethernet zu den Technologien, die das Data Center in den kommenden Jahren maßgeblich prägen werden. - Grafik SDN-Markt
Laut einer Studie von Plexxi, Lightspeed Venture und SDNCentral werden 2018 vorzugsweise Service Provider und Betreiber von Cloud-Computing-Rechenzentren SDN-Produkte kaufen. - SDN Funktion ONF
SDN trennt die Control- und Forwarding-Ebene, die in einem Switch eine Einheit sind. Die Steuerung (Control) übernimmt ein externer Controller. - Ciscos SDN Ansatz
Cisco sieht sein Open Network Environment als Gegenentwurf zu Software Defined Networking. - SDN OpenDaylight
Das OpenDaylight Project, ein Konsortium von Netzwerkfirmen, will neben OpenFlow auch andere Protokolle auf dem Service Abstraction Layer (SAL) verwenden. - SDN Adaption
Nach Einschätzung von HP etabliert sich SDN in etwa zwei Jahren. - SDN NFV
Network Functions Virtualization (NFV) will ein Problem beseitigen, das vor allem in Netzen von Service-Providern und Carriern vorherrscht: Es sind viele Spezial-Appliances vorhanden. NFV forciert dagegen die Implementierung von Netzwerkfunktionen auf Standard-Hardware.
Darum sind Composable Infrastructures für Unternehmen interessant
Hinter der Nachfrage nach einer Composable Infrastructure steht der Bedarf nach einer einheitlichen Cloud-Plattform. Diese wird benötigt, um Anwendungen und Workloads der aktuellen und der neuen Generation mit einem Mix aus herkömmlichen Technologien wie Virtualisierung, Bare-Metal-Servern und neueren Technologien wie Containern bereitzustellen.
Die Applikationen neuer Generation erfordern mehr Flexibilität, als sie die meisten Rechenzentren aktuell bieten können - sie wurden dafür ausgelegt, die Anforderungen der aktuellen Workloads zu erfüllen. Daneben ist das beispiellose Wachstum der Datenberge, die aufwändig "angehäuft", ausgewertet und vernichtet werden müssen - ein wichtiger Grund für die Unternehmen, sich mit Composable Infrastructures zu befassen.
Hinter Composable Infrastructures steht eine neu entstehende Kategorie von Infrastruktursystemen, die physikalisch getrennte Server, Storage-Systeme und Netzwerk-Ressourcen zu gemeinsamen Ressourcen-Pools zusammenfasst, die "on demand" verfügbar sind. "Composability" wird auf Software-Ebene über APIs umgesetzt. Das Konzept ist somit auf herkömmlichen Standard-Servern mit entsprechenden High-Speed/Low-Latency-Netzwerken realisierbar. Composable Infrastructures überwinden zum einen die Beschränkungen der herkömmlichen Scale-Up-Ansätze und auch die Komplexität der frühen Scale-Out-Systeme. Kosten, Zeitaufwand und notwendiges Fachwissen beim Management sind zum anderen deutlich geringer als bei Scale Out oder Scale Up.
Herausforderungen des modernen Rechenzentrums
Man kann Composable Infrastructures als die nächste Phase von Virtualisierung und Hyperkonvergenz sehen. Sie überwinden die Beschränkungen, die mit den aktuellen Technologien zur Server-Virtualisierung einhergehen. Das sind zum Beispiel fehlende Möglichkeiten zur Erzeugung von Rechen-Pools mittels physikalisch getrennter Ressourcen, fehlende Messgelegenheiten sowie die ebenfalls nicht vorhandene Möglichkeit, den Zustand eines Systems transparent von einer Ressource zur anderen zu verschieben. Zudem haben die aktuellen Technologien zur Server-Virtualisierung Schwierigkeiten, gleichzeitig mit Workloads auf Bare Metal, Virtualisierungen und in Containern umzugehen.
Dennoch hat auch eine Composable Infrastructure ihre Grenzen. Diese werden jetzt noch dadurch bestimmt, welches Maß an "Disaggregation" die Hardware zulässt. Um die Design-Prinzipien einer Composable Infrastructure vollständig zu implementieren, muss die zugrundeliegende Hardware eine ebenso vollständige Disaggregation ermöglichen - in der Pools bis auf Komponentenebene gebildet werden können. Heute folgen Composable und disaggregierte Technologien entwicklungsbedingt unterschiedlichen Richtungen.
Die notwendigen Hardware-Technologien wie Silicon Photonics befinden sich noch in der Entwicklung. Die vollständige Disaggregation von Speicher und Rechenleistung über ein Netz mit hoher Bandbreite und ultraniedrigen Latenzen ist damit eine große Herausforderung. Auf der anderen Seite sind Software-Technologien wie etwa entsprechende APIs verfügbar, die Infrastructure-as-a-Code-Fähigkeiten heute schon bereitstellen. Die IT kann also schon heute von dieser Lösung profitieren.