Durchsatz, Latenz und New Session Rates sind für alle Unternehmen relevante Schlagworte, wenn es um die Performance ihrer Rechenzentren und Netzwerke geht. Sie stehen für die Leistungsfähigkeit einer IT-Umgebung. Warum ist das so wichtig? Mobile Endgeräte erzeugen heute ungleich mehr neue Sessions und mehr Datenströme in kürzerer Zeit, als dies in klassischen PC-Umgebungen der Fall war.
Welche Anforderungen müssen hier im Kontext der Security bewältigt werden?
Performance: Netzwerke werden schneller. IT-Sicherheitslösungen müssen hier Schritt halten, wollen sie nicht den Geschwindigkeitsvorteil neuer IT-Technologien zunichte machen, indem sie zum Flaschenhals werden. Hochgeschwindigkeits-Firewalls mit hohem Durchsatz und geringer Reaktionszeit (Latenz) sind die Lösung.
Segmentierung: Daten mit Bezug zu bestimmten Anwendungen, Anwendergruppen, Compliance-Anforderungen, Geschäftsbereichen, Vertraulichkeitsstufen und Standorten sollten im Zuge der Rechenzentrumsdynamisierung segmentiert werden. In der Folge müssen Firewall-Lösungen eine hohe Port-Dichte und logische Abstraktionsfähigkeit aufweisen, um sowohl physische als auch virtuelle Segmentierung in Private- und Public-Cloud-Umgebungen unterstützen zu können.
Vereinfachung: Im Zug der Erweiterung von Rechenzentren mithilfe externer Partner (Stichwort Cloud Computing) sollte für den Datenzugriff ein "Zero-Trust-Modell" in Erwägung gezogen werden, das auf vielfältigen Sicherheitsfunktionen beruht und dennoch hohe Geschwindigkeit beim "Abprüfen" aller eingestellten Faktoren bietet.
Umfassende Kontrolle: Um heutigen und künftigen Anforderungen an IT-Sicherheit in modernen Rechenzentren gerecht werden zu können, bedarf es einer nachweislich sicheren Implementierung von Schutzmaßnahmen. Diese Kontrolle dient jedoch nicht nur dem Nachweis von Sicherheit, sondern auch der kontinuierlichen Verbesserung der Schutzmaßnahmen und vieler weiterer Prozesse. Ebenso muss in der Regel auch die Einhaltung von Compliance-Regularien unterschiedlichster Art sichergestellt und dementsprechend kontrolliert werden.
- Notfallvorsorge, Daten und Hintergründe
Auf den folgenden Seiten finden Sie Marktdaten und Erhebungen rund im das Thema RZ-Notfallvorsorge. - Geschäftsprozesse in der IT
Geschäftsprozesse und deren Abhängigkeit von der IT: Je nach maximal tolerierbarem Geschäftsschaden definieren Entscheider eine maximal tolerierbaren RZ-Ausfallzeit, die die Vorgabe für eine Notfall-RZ-Architektur darstellt. Gleichzeitig wird den Entscheidern hierbei deutlich, welche Prozesse in welchem Maße von der IT abhängen. - Wer sorgt vor?
Nur knapp die Hälfte aller KMUs beschäftigen sich ausreichend Themen Notfallvorsorge und Notfallbewältigung. - Was wann passiert
Typischer Ablauf einer Notfallbewältigung - Welche Architektur ist die Richtige?
Die Herausforderung bei der richtigen Wahl der Notfall-RZ-Lösung besteht darin, die beiden wichtigen Einflussfaktoren Kosten und Wiederanlaufzeit zueinander im entgegengesetzten Verhältnis stehen. - Was den Notfall auslöst
Stromausfall und Hardwarefehler sind die häufigsten Gründe für IT-Notfälle. - Was Ausfall und Vorsorge kosten
Die Geschäftsausfallkosten müssen in Relation zu angemessenen Investitionen in die Notfall-Vorsorge gesetzt werden. Auf der einen Seite stehen die Kosten pro Monat für den Regelbetrieb der Notfall-RZ-Architekturen unter Erreichung bestimmter RZ-Wiederanlaufzeiten (RTO). Auf der anderen Seite der pro Monat umgelegte maximal zulässige wirtschaftliche Schaden in einem Zeitraum von z.B. 5 Jahren. Die Grafik stellt typische Notfall-RZ-Wiederanlaufzeitspannen in Abhängigkeit von der Notfall-RZ-Architektur und deren relativen Kosten dar. - Ausfall-Analyse
Auf Basis einer „Business Impact Analyse“ (BIA) im Rahmen eines Notfall-Managament-Standards oder einer eigenen aber fundierten Abschätzung sollte man diesen Grafen als wichtigen Baustein für eine Notfallstrategieentscheidung ermitteln.
Wichtige Parameter
Aus der Perspektive der IT-Sicherheit sind folgende Faktoren der Schlüssel zum Erfolg:
Sichtbarkeit und Kontrolle von Anwendern und Anwendungen
Mithilfe von User-bezogener Applikationskontrolle ist es möglich, Tausende von Web-2.0-Anwendungen zu erkennen und ihre Nutzung zu kontrollieren. Applikationen oder Teile derselben können klassifiziert, beschränkt oder ganz unterbunden werden - in Abhängigkeit von Zeit, Dauer, Nutzer oder Ort der Nutzung.
Erkennen und Abwehren von Angriffen auch innerhalb von Anwendungen
Die volle Kontrolle aller Daten und auch der Inhalte vertrauenswürdiger Anwendungen stellt sicher, dass Netzwerke, Anwendungen, Datenbanken und Endgeräte nicht kompromittiert, ausgespäht oder beschädigt werden können. Sogenannte Threat Researchers wie das Fortinet FortiGuard Team stellen rund um die Uhr Updates in Echtzeit bereit, damit Unternehmen kontinuierlich auf dem neuesten Stand der Abwehrtechnologien sind.
Reduzierung von Latenzzeiten und Minimierung des Netzwerk-Performance-Einflusses
Gerade in Rechenzentren sind Performance und Latenz erfolgskritische Parameter. Der Einfluss von Security auf diese Faktoren muss daher minimal sein, um Dienste uneingeschränkt mit der von Kunden erwarteten Leistungsfähigkeit bereitstellen zu können. Ebenso wichtig wie Performance sind in diesem Zusammenhang minimale Failover-Zeiten im Cluster, unterbrechungsfreie Upgrades und Updates, Load-Balancing und Management-Hochverfügbarkeit.
Transparenz und Kontrolle am Gateway und darüber hinaus
Die rasante Entwicklung von intelligenten und komplexen Angriffsformen macht eine umfassende Kontrolle des Core-Netzwerks ebenso wie aller übrigen Netzwerkbereiche, der Endgeräte, der Datenbanken, sämtlicher Messaging-Systeme und aller Web-Anwendungen und -Server notwendig. Über all diese Bereiche hinweg müssen daher effiziente und leistungsfähige Security-Management-Prozesse definiert und etabliert werden. Dies sind neben den bereits erwähnten Sicherheitsmechanismen auch Schwachstellen-, Konfigurations-, Zugriffs- und Veränderungsmanagement, Monitoring, Reporting und Verschlüsselungsmaßnahmen.
Nahtlose Integration und globales Management
Über die Funktionalität der Security-Infrastruktur sind konsistente Services, hohe Zuverlässigkeit, eine nahtlose Integration in die vorhandene Netzwerkinfrastruktur und ein globales, zentrales Management sowie weltweiter Support wichtige Kriterien.
Fazit
Security-Technologie von morgen muss bereits heute die Fähigkeit besitzen, das Netzwerk, den Anwender, die Anwendungen, Datenbanken sowie Security-, Netzwerk- und Endgeräte umfassend und zuverlässig zu kontrollieren. Die Implementierung neuer Technologien in Unternehmensnetzwerke erfordert dafür die laufende Aufrüstung der Schutzmechanismen. (bw)