Viele IT-Organisationen scheuten bisher den Gang in die Public Cloud, obwohl Effizienzgewinne offensichtlich sind. Die Hürden lagen oft in Einschränkungen bezüglich Datensicherheit und Schutz der Daten, insbesondere vor dem Zugriff staatlicher Organisationen.
Diese Vorbehalte wurden von zahlreichen US-amerikanischen Cloud-Anbietern erkannt. Als Reaktion darauf werden landesspezifische Dienste angeboten. Einige Anbieter gehen diesen Weg konsequent: Sie geben den IT-Betrieb an einen deutschen Datentreuhänder ab. Somit haben sie keinen direkten Zugriff auf die Kundendaten. Die damit verbundene Zusicherung, neben dem Datenschutz auch das Vertragswerk nach deutschem Recht vorzunehmen, ist richtungsweisend. Diese neuen Rahmenbedingungen werden dem deutschen Cloud-Markt einen kräftigen Schub geben.
Auch wenn diese Angebote erst schrittweise durch Vorabversionen zur Verfügung stehen, sollten IT-Verantwortliche frühzeitig eine Migration planen. Diese frühen Versionen können von Entwicklern oder Betreibern von On-Premise-Anwendungen als Testumgebung genutzt werden. BearingPoint empfiehlt, Anwendungen ab sofort schrittweise in die Cloud zu migrieren. Dabei kann der Weg über hybride Cloud-Szenarien gegangen werden, um unternehmenskritische Daten weiterhin intern zu verarbeiten. Sobald das deutsche Angebot vollständig verfügbar ist, können durch eine schnelle Migration Innovationszyklen besser genutzt werden.
- Datenverlust
Wenn ein Datenverlust auftritt, drohen Geldbußen, Gerichtsprozesse und harte Strafen. Die Aufarbeitung des Ganzen und die Information der betroffenen Kunden verursachen erheblich Kosten. Indirekte Folgen wie Image- und Auftragsverluste sind noch gar nicht eingerechnet, die ein Unternehmen für Jahre beschäftigen können. - Gestohlene Benutzerdaten
Datenverluste und andere Angriffe folgen häufig aus einem zu lockeren Authentifizierungsprozess, aus zu schwachen Passwörtern und einem schlechten Schlüsselmanagement. Unternehmen kämpfen mit dem Thema Identitätsmanagement, wenn es um die Zuordnung von Zugriffsrechten auf Benutzerrollen geht. Wenn Mitarbeiter die Stelle wechseln oder das Unternehmen ganz verlassen, werden ihre Zugriffsrechte häufig zu spät oder gar nicht angepasst. - Geknackte Interfaces und APIs
Sicherheit und Verfügbarkeit von Cloud-Diensten - von der Authentifizierung über die Zugangskontrolle bis hin zu Verschlüsselung und Aktivitäten-Monitoring - hängen von der API-Sicherheit ab. Das Risiko steigt mit der Zahl von Drittanbietern, die auf der Grundlage der APIs neue Benutzeroberflächen entwickeln, weil diesen Unternehmen Zugriff auf Dienste und interne Daten gewährt werden muss. - Ausgenutzte Schwachstellen
Durch die verschiedenen Formen der Cloud-Nutzung auf Mietbasis werden Schwachstellen zu einem immer größeren Problem. Mehrere Unternehmen teilen sich denselben Arbeitsspeicher, Datenbanken und andere Ressourcen - was wiederum ganz neue Angriffsvektoren ermöglicht. - Account Hijacking
Phishing, Betrug und Software Exploits sind immer noch erfolgreich - Cloud-Services ergänzen diese Maschen um eine weitere Bedrohung, weil Angreifer nun Aktivitäten belauschen, Transaktionen manipulieren und Daten verändern können. - Insider mit bösen Absichten
Die Gefahr von innen hat viele Gesichter: ein aktueller oder ehemaliger Angestellter, ein Systemadministrator, ein Vertrags- oder Geschäftspartner. Es geht um die gesamte Palette - von Datendiebstahl bis hin zu Rache. Im Cloud-Umfeld kann ein fest entschlossener Insider die gesamte Infrastruktur zerstören und Daten manipulieren. - Der APT-Parasit
APTs (Advanced Persistent Threats) bewegen sich in der Regel seitlich durch ein Netzwerk und mischen sich unter den normalen Datenverkehr - entsprechend schwer sind sie zu entdecken. Die großen Cloud-Provider setzen fortschrittliche Sicherheitstechniken ein, um zu verhindern, dass ihre IT-Infrastruktur durch APTs beeinträchtigt wird. Dennoch sind ihre Kunden gut beraten, sich selbst ebenso sorgfältig auf mögliche Folgeschäden für ihre Cloud-Konten vorzubereiten wie sie das bei On-Premise-Systemen tun würden. - Dauerhafter Datenabfluss
Je reifer die Cloud wird, desto seltener kommt es zwar vor, dass Fehler seitens der Provider zu Datenverlusten führen. Hacker mit bösen Absichten sind aber bekannt dafür, dass sie Cloud-Daten dauerhaft löschen, um Unternehmen zu schaden. - Fehlende Sorgfalt
Gerade dort, wo ein Unternehmen in die Cloud migrieren oder mit einem anderen Unternehmen über die Cloud zusammenarbeiten möchte, ist gebührende Sorgfalt angebracht. Beispielsweise werden Unternehmen, die es versäumen, einen Vertrag eingehend zu prüfen, niemals wissen, wie zuverlässig und seriös der Vertragspartner im Falle eines Sicherheitsvorfalls vorgeht. - Missbrauch von Cloud-Diensten
Es kommt vor, dass Cloud-Services missbraucht werden, um damit kriminelle Aktivitäten zu unterstützenen. Um einen DDoS-Angriff (Distributed Denial of Service) zu starten oder eine Verschlüsselung zu knacken, braucht es eine leistungsstarke Hardwareumgebung - und Cloud-Ressourcen erfüllen dieses Kriterium. - DoS-Attacken
DoS-Attacken (Denial of Service) verbrauchen eine große Menge Rechnleistung - die Rechnung zahlt der Kunde. Auch wenn die breitbandigen DDoS-Angriffe weit verbreitet und gefürchtet sind - ebenso gewappnet sollten Unternehmen für assyametrische DoS-Attacken auf Anwendungsebene sein, die Sicherheitslücken in Webservern und Datenbanken betreffen. - Geteite Technik, doppelte Gefahr
Verschiedene Cloud Provider teilen sich Infrastruktur, Plattformen und Anwendungen - liegt irgendwo hier eine Verwundbarkeit vor, sind gleich alle betroffen. Wenn beispielsweise eine zentrale Komponente wie ein Hypervisor oder eine Anwendung erfolgreich angegriffen wurde, ist gleich die komplette Cloud-Umgebung unsicher.
Ist die lokale Cloud eine echte Cloud?
Public Cloud Computing zeichnete sich bisher durch globale Verfügbarkeit und Standardisierung aus. Durch die Einführung von lokalen, landesspezifischen Cloud-Inseln mit individuellen Datenschutzanforderungen wird dieses Modell aufgeweicht. Eine globale Skalierbarkeit und Georedundanz ist nicht mehr möglich, da die lokalen Angebote nur in geringem Maße in andere Plattformen des gleichen Anbieters integriert werden können. Auch eine Übertragung bestehender Anwendungen und Daten von einer globalen zu einer lokalen Plattform kann in der Regel nur per "lift and shift", also offline, erfolgen. Insbesondere für weltweit agierende Unternehmen muss genau abgewogen werden, ob und wie lokale Cloud-Angebote anwendbar sind.
Der größte Vorteil einer deutschen Public Cloud ist die Einhaltung von deutschen Datenschutzbestimmungen. Ein in Deutschland liegender Gerichtsstand schützt die Daten vor dem Zugriff ausländischer Gerichte und Behörden. Damit werden die größten Bedenken für den Einsatz einer Public Cloud beseitigt.
Die Schaffung von landesspezifischen Clouds ist für Anbieter mit hohen Kosten und kleineren Skalierungsaussichten verbunden. Auch wenn sich die Anbieter die deutsche Cloud deshalb mit einem extra Obolus vergüten lassen, bleibt der Business Case speziell für Anwender mit erhöhtem Sicherheits- und Compliance-Bedürfnis weiterhin interessant.
Bewährte Vorgehensmodelle unterstützen die Migration in die Cloud
Um Effizienzgewinne frühestmöglich realisieren zu können, sollte die Migration in die Cloud ab sofort erfolgen. Zur Minimierung des finanziellen Risikos sind bei der Migration einige Aspekte zu beachten.
Unterstützung bieten standardisierte Vorgehensmodelle wie beispielsweise die BearingPoint Cloud Transformation Guidelines, die aus von einer Vielzahl von Projekten abgeleitet wurden. Aktuell sind dies über 30 Empfehlungen, die folgende Bereiche behandeln:
Anwendungsübergreifende Empfehlungen zur Gestaltung der Referenzarchitektur,
Empfehlungen zur Konzeption der Transformation einzelner Anwendungen in die Public Cloud,
Richtlinien für Programmierer, um die Potenziale der Cloud detailliert auszuschöpfen.
Elastische Ressourcenskalierung für einen reibungslosen Betrieb
Ein Beispiel dieser Guidelines ist, wie Cloud-Komponenten in ihrer Leistungsfähigkeit kontrolliert, gedrosselt oder gestoppt werden. Dies ist notwendig, da die Service-Last von der Anzahl der Nutzer abhängig ist. Ein unerwartet starker Anstieg der Prozesslast kann zu einer Überschreitung der Ressourcenkapazität führen. Dies verschlechtert die Systemperformance und bedingt Ausfälle. Um die Elastizität der Cloud weiterhin zu erhalten, müssen die Services so lange gedrosselt werden, bis weitere Systeminstanzen zur Verfügung stehen oder der Bedarf abgeklungen ist.
Ein anderer, besserer Weg ist die Modularisierung und die Bereitstellung neuer Systeminstanzen durch "scale out" - sprich dem Hinzufügen neuer Instanzen. Deshalb sollten zusammenarbeitende Komponenten als Modul gebündelt werden, um eine einfache Skalierung zu ermöglichen. Diese Module skalieren dann gemeinsam, um neue Kapazitäten schnell bereitzustellen. Eine modularisierte Skalierung ist einfacher als die Erweiterung des Gesamtsystems, da Abhängigkeiten zum bestehenden System nur in geringerem Maße berücksichtigt werden müssen.
Eine Kombination der beiden Empfehlungen ist in der unten stehenden Abbildung zu erkennen. Beim Überschreiten einer bestimmten Prozesslast, wird die Ausführung der Funktion gedrosselt, bis eine neue Instanz hochgefahren ist. Durch die Modularisierung erfolgt die Bereitstellung sehr zügig.
Reduktion des Migrationsrisikos
Die Migration in die Cloud ist heute risikoärmer denn je. Für Anwender mit besonders hohen Datenschutzanforderungen werden datenschutzrechtliche Risiken durch Angebote deutscher Cloud-Lösungen weitestgehend ausgeräumt. Weiterhin können finanzielle Risiken, Reibungsverluste und eine zu geringe Skalierbarkeit durch den Einsatz bewährter Vorgehensmodelle bei der Migration in die virtuelle Wolke minimiert werden.
Weil deutsche Cloud-Angebote auch in Kombination mit Public- und Hybrid-Cloud-Lösungen eingesetzt werden können, spricht nichts mehr gegen eine schnelle Realisierung von Effizienzgewinnen in der IT durch Cloud Computing-Lösungen. Der Weg in die Wolke ist frei!