Denn eines ist gewiss: Ein ständig steigender Automatisierungsgrad und Algorithmen aus dem Bereich der künstlichen Intelligenz werden auf infrastruktureller Ebene Folgen haben, die nicht jedem Administrator schmecken werden.
- Facebook Big Sur
Das unter Open-Source-Lizenz stehende KI-System setzt auf die Nvidia Tesla Accelerated Computing Platform und übernimmt bei Facebook heute komplexe Aufgaben, für die früher auf Drittanbieter-Hardware zurückgegriffen werden musste. - Google RankBrains
Für Suchanfragen, die erstmalig auftauchen, soll RankBrains menschliche Schriftsprache in mathematische Vektoren übersetzen, die die Suchengine dann verarbeiten kann. Diese Form des maschinellen Lernens wird mit steigender Zahl bislang unbekannter Suchanfragen immer besser. Wissbegierige Internetnutzer trainieren das System quasi unbewusst. - Google Deepmind AlphaGo
Besiegte kürzlich den Welt- und den Europameister im asiatischen Brettspiel Go: das KI-System Alpha Go, das von Google Deepmind entworfen wurde. - SwiftKey Neural Alpha
Wer SMS schreibt, bekommt schon länger Wortvorschläge. Mit Neural Alpha will "n-gram"-Erfinder SwiftKey nun aber auch ganze Satzzusammenhänge vorhersagen und so die Texteingabe noch intuitiver machen. - Open AI
Investor und Tesla-Gründer Elon Musk erforscht in der "Open AI"-Initiative zusammen mit anderen Silicon-Valley-Vordernkern die Künstliche Intelligenz zum Wohle der Menschheit. Damit wir keine bösen Terminatoren bekommen, die uns alle versklaven wollen... - Microsoft XiaoIce
Der Microsoft-"Virtual Social Assistant" XiaoIce trägt seit Ende 2015 den Wettbericht im chinesischen Fernsehen komplett ohne menschliche Hilfe vor. - Roboter-Concierge Connie
Wenn Sie demnächst in einem Hilton absteigen, könnten Sie einem kleinen Roboter-Concierge begegnen: "Connie" arbeitet mit Watson-Technologie von IBM und steht Hotelgästen mit Rat und Tat zur Seite. Das Pilotprojekt läuft gerade in den USA.
Was ist Software-defined Infrastructure?
Innerhalb einer Software-defined Infrastructure (SDI) befindet sich die Intelligenz nicht mehr direkt in den Hardwarekomponenten der IT-Infrastruktur, sondern auf einer höheren Management-Ebene. Somit lässt sich die Konfiguration der kompletten Infrastruktur oder einzelner Teilbereiche schneller vornehmen. Das Konzept sieht vor, dass die gesamte Infrastruktur-Umgebung auf Basis von Software und Automation, also weitestgehend ohne menschliche Interaktion, aufgespannt und gesteuert wird.
Aufbau und Konfiguration moderner Infrastrukturen sind heute bereits mit Programmcode oder Skripten programmiert und anhand von "Infrastructure as Code" entwickelt. Die Infrastruktur arbeitet dabei unabhängig von einer bestimmten Hardwarekonfiguration, besitzt keine technischen Abhängigkeiten und ist programmatisch erweiterbar. Die Idee hinter dem Konzept besteht darin, die Infrastruktur jeweils nach den Anforderungen einer Applikation zu definieren, automatisch herzuleiten und aufzubauen.
Zu den Vorteilen einer SDI zählt die Möglichkeit, den Übergang von einer fertig konfigurierten Infrastrukturlandschaft zu einer anderen quasi ohne Unterbrechung sicherzustellen. Das bedeutet, dass sich eine komplette Infrastrukturlandschaft (Server, Storage, Networking) rein durch Software austauschen lässt. Damit lässt sich eine SDI-basierte IT-Umgebung wie eine typische Applikation auch versionieren und damit einem Rollback unterziehen beziehungsweise klonen. Zu den typischen und zugleich wichtigsten Elementen einer SDI-Umgebung gehören derzeit Software-defined Networks (SDN) und Cloud-Technologien für den Infrastrukturbau.
- Schwächen von Software Defined Networking
Fokussierung auf Switches und Vernachlässigung von Server-Endpoints und damit der Anwendungsschnittstellen. - Schwächen von Software Defined Networking
Unzureichendes Management von IT-Ressourcen über mehrere Domains hinweg. - Schwächen von Software Defined Networking
Stärkere Belastung des Netzes durch die Kommunikation zwischen den Controllern: Sie steigt um etwa drei bis vier Prozent. - Schwächen von Software Defined Networking
Mangelnder Support von optischen Netzen mit leistungsvermittelnder Übertragung. Hier müssen Erweiterungen der OpenFlow-Spezifikation weiterhelfen. - Schwächen von Software Defined Networking
Skalierbarkeit: In großen Netzen fallen Millionen von Flows an. Das erfordert hoch skalierbare Controller. Bislang fehlen jedoch die Erfahrungswerte mit solchen Systemen beziehungsweise großen Netzen. - Schwächen von Software Defined Networking
Single Point of Failure durch zentralen Controller: Redundanz lässt sich durch den Einsatz mehrerer Controller erreichen. Das erhöht jedoch die Kosten und den Managementaufwand. - Stärken von Software Defined Networking
Einfaches Verschieben von Virtual Machines (VM) im Netzwerk. - Stärken von Software Defined Networking
Geringere Komplexität der Netzwerkinfrastruktur, da weniger Switch-Ports und Kabel erforderlich sind. Das reduziert zudem Kosten. - Stärken von Software Defined Networking
Komplette Sicht auf Anwendungen, Netzwerkelemente und Datenströme (Flows) - Stärken von Software Defined Networking
Kein Mapping von Servicedefinitionen auf physikalische Netzwerk-Ports. Das verringert den Konfigurationsaufwand. - Stärken von Software Defined Networking
Flexiblere Konfiguration von Services: Über Einträge in Flow Tablets lassen sich Dienste und Eigenschaften wie etwa Quality-of-Service-Merkmale und VLAN-Einstellungen konfigurieren, was in herkömmlichen Netzen mittels Scripts nicht möglich ist. - Stärken von Software Defined Networking
Bereitstellung von Anwendungen und Netzdiensten innerhalb von Stunden, nicht Tagen. - Stärken von Software Defined Networking
Zentrale Steuerung von Switches, Routern, virtualisierten Switches (vSwitches), WLAN-Access-Points und anderen Netzsystemen. - Stärken von Software Defined Networking
Offener Ansatz: Der Controller ist kein herstellerspezifisches System. Er lässt sich nach Bedarf durch Netzwerkfachleute konfigurieren und programmieren.
SkyNet IT: Was ist Autonomous Infrastructure?
Ein auf die Software-defined Infrastructure aufbauendes Konzept ist eine "Autonomous Infrastructure". Basierend auf Konzepten aus dem Machine Learning, Cognitive Computing und Künstlicher Intelligenz, geht es hierbei um den Aufbau und den Betrieb von selbstlernenden respektive regelbasierten und somit selbstheilenden Infrastruktur-Umgebungen. Das bedeutet, dass IT-Infrastrukturen und -Umgebungen ohne manuelle beziehungsweise menschliche Interaktion
automatisch und eigenständig nach den jeweiligen Anforderungen (Rechenleistung, Speicherplatz, Netzwerk, Datenbanken usw.) der Workloads und Applikationen hoch- und wieder herunterfahren;
stetig das verändernde Verhalten und den Zustand der einzelnen Infrastruktur-Komponenten analysieren und damit sich selbst verstehen lernen;
auf Zustände einzelner Infrastruktur-Komponenten reagieren und im Fehlerfall eigenständig Aktionen auslösen, um die betreffende Komponente - und damit die gesamte Infrastruktur - wieder in einen fehlerfreien Zustand zu überführen.
Das Konzept der "Autonomous Infrastructure" ist völlig neu und nicht mit typischen Automatisierungslösungen zu vergleichen, welche üblicherweise mit vordefinierten Skripten arbeiten. Denn eine "Autonomous Infrastructure" macht sich das vorhandene Wissen im Unternehmen zunutze und wendet dies automatisch an. Sie muss demnach zunächst von den Administratoren im Unternehmen "angelernt" werden und arbeitet anschließend eigenständig. So lassen sich Störungen bei individuellen Applikationen beheben und aufgrund von angelerntem Wissen auch auf zuvor unvorhergesehene Ereignisse reagieren.