In einer Umfrage von Oxford Economics unter 300 Geschäfts- und IT-Entscheidern gaben kürzlich fast zwei Drittel der Befragten an, dass in den letzten zwei Jahren vor allem der Druck gestiegen sei, schneller zu sein als die Konkurrenz. Als zweite Priorität nannten sie entsprechend eine schnellere Entwicklung von Produkten und Dienstleistungen.
Ein überraschendes Ergebnis der Umfrage: Das meistgenannte Hindernis war - noch vor Faktoren wie Regularien, Datensicherheit oder dem Mangel an qualifiziertem Personal - eine "rigide und inflexible Technologie-Infrastruktur". Über die Hälfte der Befragten (54 Prozent) sahen ihre IT nur "einigermaßen" gut gerüstet, schnelle Innovation zu unterstützen - vier Prozent trauten es ihr gar nicht zu.
- Datenverlust
Wenn ein Datenverlust auftritt, drohen Geldbußen, Gerichtsprozesse und harte Strafen. Die Aufarbeitung des Ganzen und die Information der betroffenen Kunden verursachen erheblich Kosten. Indirekte Folgen wie Image- und Auftragsverluste sind noch gar nicht eingerechnet, die ein Unternehmen für Jahre beschäftigen können. - Gestohlene Benutzerdaten
Datenverluste und andere Angriffe folgen häufig aus einem zu lockeren Authentifizierungsprozess, aus zu schwachen Passwörtern und einem schlechten Schlüsselmanagement. Unternehmen kämpfen mit dem Thema Identitätsmanagement, wenn es um die Zuordnung von Zugriffsrechten auf Benutzerrollen geht. Wenn Mitarbeiter die Stelle wechseln oder das Unternehmen ganz verlassen, werden ihre Zugriffsrechte häufig zu spät oder gar nicht angepasst. - Geknackte Interfaces und APIs
Sicherheit und Verfügbarkeit von Cloud-Diensten - von der Authentifizierung über die Zugangskontrolle bis hin zu Verschlüsselung und Aktivitäten-Monitoring - hängen von der API-Sicherheit ab. Das Risiko steigt mit der Zahl von Drittanbietern, die auf der Grundlage der APIs neue Benutzeroberflächen entwickeln, weil diesen Unternehmen Zugriff auf Dienste und interne Daten gewährt werden muss. - Ausgenutzte Schwachstellen
Durch die verschiedenen Formen der Cloud-Nutzung auf Mietbasis werden Schwachstellen zu einem immer größeren Problem. Mehrere Unternehmen teilen sich denselben Arbeitsspeicher, Datenbanken und andere Ressourcen - was wiederum ganz neue Angriffsvektoren ermöglicht. - Account Hijacking
Phishing, Betrug und Software Exploits sind immer noch erfolgreich - Cloud-Services ergänzen diese Maschen um eine weitere Bedrohung, weil Angreifer nun Aktivitäten belauschen, Transaktionen manipulieren und Daten verändern können. - Insider mit bösen Absichten
Die Gefahr von innen hat viele Gesichter: ein aktueller oder ehemaliger Angestellter, ein Systemadministrator, ein Vertrags- oder Geschäftspartner. Es geht um die gesamte Palette - von Datendiebstahl bis hin zu Rache. Im Cloud-Umfeld kann ein fest entschlossener Insider die gesamte Infrastruktur zerstören und Daten manipulieren. - Der APT-Parasit
APTs (Advanced Persistent Threats) bewegen sich in der Regel seitlich durch ein Netzwerk und mischen sich unter den normalen Datenverkehr - entsprechend schwer sind sie zu entdecken. Die großen Cloud-Provider setzen fortschrittliche Sicherheitstechniken ein, um zu verhindern, dass ihre IT-Infrastruktur durch APTs beeinträchtigt wird. Dennoch sind ihre Kunden gut beraten, sich selbst ebenso sorgfältig auf mögliche Folgeschäden für ihre Cloud-Konten vorzubereiten wie sie das bei On-Premise-Systemen tun würden. - Dauerhafter Datenabfluss
Je reifer die Cloud wird, desto seltener kommt es zwar vor, dass Fehler seitens der Provider zu Datenverlusten führen. Hacker mit bösen Absichten sind aber bekannt dafür, dass sie Cloud-Daten dauerhaft löschen, um Unternehmen zu schaden. - Fehlende Sorgfalt
Gerade dort, wo ein Unternehmen in die Cloud migrieren oder mit einem anderen Unternehmen über die Cloud zusammenarbeiten möchte, ist gebührende Sorgfalt angebracht. Beispielsweise werden Unternehmen, die es versäumen, einen Vertrag eingehend zu prüfen, niemals wissen, wie zuverlässig und seriös der Vertragspartner im Falle eines Sicherheitsvorfalls vorgeht. - Missbrauch von Cloud-Diensten
Es kommt vor, dass Cloud-Services missbraucht werden, um damit kriminelle Aktivitäten zu unterstützenen. Um einen DDoS-Angriff (Distributed Denial of Service) zu starten oder eine Verschlüsselung zu knacken, braucht es eine leistungsstarke Hardwareumgebung - und Cloud-Ressourcen erfüllen dieses Kriterium. - DoS-Attacken
DoS-Attacken (Denial of Service) verbrauchen eine große Menge Rechnleistung - die Rechnung zahlt der Kunde. Auch wenn die breitbandigen DDoS-Angriffe weit verbreitet und gefürchtet sind - ebenso gewappnet sollten Unternehmen für assyametrische DoS-Attacken auf Anwendungsebene sein, die Sicherheitslücken in Webservern und Datenbanken betreffen. - Geteite Technik, doppelte Gefahr
Verschiedene Cloud Provider teilen sich Infrastruktur, Plattformen und Anwendungen - liegt irgendwo hier eine Verwundbarkeit vor, sind gleich alle betroffen. Wenn beispielsweise eine zentrale Komponente wie ein Hypervisor oder eine Anwendung erfolgreich angegriffen wurde, ist gleich die komplette Cloud-Umgebung unsicher.
Agilität à la Cloud
Dabei ist es heute mit agiler Softwareentwicklung und flexiblen IT-Infrastrukturen durchaus möglich, zügig auf sich ändernde Anforderungen zu reagieren. Namhafte Public-Cloud-Anbieter demonstrieren dies jeden Tag. Dauert es in einem herkömmlichen Unternehmens-Rechenzentrum mehrere Tage oder Wochen, bis die IT-Organisation einen neuen Server bereitstellt, so ist zum Beispiel eine neue AWS-Instanz nach wenigen Minuten verfügbar.
Der Vergleich ist natürlich unfair. Die meisten Firmen müssen eine gewachsene IT-Landschaft betreiben und Hunderte oder Tausende von Anwendungen aktuell halten und das mit komplexen Genehmigungs-Prozessen und Applikationsabhängigkeiten.
Cloud-Unternehmen wie Amazon Web Services (AWS), Facebook oder Google hingegen nutzen relativ wenige, speziell auf ihre Anforderungen zugeschnittene Programme, die sie meist selbst entwickelt haben. Als Hardwarebasis dienen Whitebox-Ware mit proprietärem Code (etwa bei Facebook ) oder selbstgebaute Server (wie bei Google ).
- Mehr Cloud-Befürworter
Der Anteil der Cloud-Befürworter steigt seit Jahren beständig an. - 50-Prozent-Schwelle durchbrochen
54 Prozent der befragten Unternehmen nutzen Cloud-Dienste. Gegenüber 2011 hat sich der Anteil fast verdoppelt. - KMUs holen bei Cloud-Nutzung auf
Während der Anteil der Cloud-Nutzer bei den Großunternehmen seit Jahren bei etwa 70 Prozent stagniert, machen sich immer mehr kleine und mittelgroße Firmen auf den Cloud-Weg. - ITK-Branche bleibt Cloud-Vorreiter
Die Nutzung von Cloud-Diensten ist quer durch alle Branchen verbreitet. Laut Umfrage gibt es keine Branche, die sich der Cloud komplett verweigert. - Durchbruch für dei Public Cloud
Vor allem Public-Cloud-Dienste scheinen stärker gefragt zu sein. Die Nutzung der Private Cloud stagniert dagegen. - Office und Groupware sind die Cloud-Killer-Apps
Rund ein Drittel der befragten Unternehmen bezieht branchenspezifische Dienste aus der Public Cloud. Experten werten diese Zahl als zeichen dafür, wie tief die Cloud bereits in der Unternehmens-IT verankert ist. - Sicherheitsbedenken bleiben das größte Hemmnis
Die Furcht, dass Unberechtigte auf sensible Daten zugreifen oder dass Daten in der Cloud verloren gehen, bleibt das größte Hemmnis, Public-Cloud-Dienste zu nutzen. - Sicherheitsvorfälle in der Public Cloud
15 Prozent der Public-Cloud-Nutzer berichteten, dass es im vergangenen Jahr Sicherheitsprobleme mit den entsprechenden Diensten gegeben habe. - Positive Erfahrungen mit Public Cloud
Gut vier von zehn Public-Cloud-Nutzern bezeichneten ihre Erfahrungen in der Wolke als durchweg positiv. Damit hat sich ihr Anteil gegenüber 2014 mehr als verdoppelt. - Mehr Flexibilität und geringere Kosten
Public-Cloud-Nutzer heben vor allem die gestiegene Flexibilität sowie Verfügbarkeit, Skalierbarkeit und Performance der IT-Leistungen hervor. Auch auf der Kostenseite bringt die Public Cloud wohl Vorteile. Allerdings sieht auch ein Drittel steigende Implementierungszeiten und mehr Administrationsaufwand. - Sorge um Compliance
Immer noch befürchten viele Unternehmen, dass mit der Nutzung von Cloud-Lösungen auch Compliance-Probleme einher gehen könnten. - Vertrauen ist gut, Kontrolle ist besser
Immer mehr Unternehmen schauen ihren Cloud-Providern genau auf die Finger. - Standort bleibt das wichtigste Kriterium
Das Cloud-Rechenzentrum muss ausschließlich in Deutschland stehen, fordern drei von vier befragten Unternehmen. Damit bleibt der Standort das wichtigste Kriterium für die Auswahl des Cloud-Anbieters.
50 Updates pro Tag
Manche Online-Anbieter stemmen dabei rund 50 Updates ihrer Plattform pro Tag. Grundlage für dieses hohe Tempo sind DevOps-Praktiken mit kontinuierlicher Aktualisierung des Codes (Continuous Delivery) und automatisierter Softwareverteilung. Bei der E-Commerce-Plattform Etsy zum Beispiel hat jeder Entwickler seine eigene KVM-Umgebung, die zentrale Kontrolle erfolgt über das Orchestrierungswerkzeug Chef.
Im Fall der großen Cloud-Anbieter gesellt sich zu DevOps, Automation und Self-Service der Einsatz von Container-Technologie für die schnelle hardwarenahe Provisionierung von Applikationsservices, ohne den Umweg über ein Virtualisierungs-Layer gehen zu müssen. Da die Cloud-Größen in dieser Liga jeweils Millionen von Servern betreiben, erzielen sie zudem erhebliche Skaleneffekte bei Beschaffung und Betrieb.
Der von Oxford Economics festgestellte Zwang zur Beschleunigung treibt deshalb zunächst den Umsatz mit Public-Cloud-Diensten in die Höhe. So soll laut Gartner der Markt für Public Cloud Infrastructure as a Service in diesem Jahr um über 38 Prozent zulegen: von 16,2 auf 22,4 Milliarden Dollar.
Doch ohne interne IT geht es nicht - sei es aufgrund von Datensicherheitsbedenken, Regularien, Vorgaben der Geschäftsleitung, oder weil sich die IT-Organisation nicht selbst wegrationalisieren will und deshalb den Fehdehandschuh von Amazon und Co. aufnimmt. Doch wie erreicht sie mit hauseigener Infrastruktur eine ähnliche Schnelligkeit und Agilität wie die Cloud-Giganten?