So profitieren Admins von GenAI

09.08.2024
Von 
Scott McCarty ist Senior Principal Product Manager for RHEL Server bei Red Hat.
Generative KI kann auch IT-Operations-Spezialisten das Leben erleichtern. Lesen Sie, wie.
GenAI macht (auch) das Ops-Leben leichter.
GenAI macht (auch) das Ops-Leben leichter.
Foto: Gorodenkoff | shutterstock.com

Generative AI (GenAI) ist weiterhin in aller Munde - auch wenn der Hype, insbesondere mit Blick auf den Return on Investment, langsam der Ernüchterung weicht. Dabei sollte man generative künstliche Intelligenz nicht als Produkt, sondern vielmehr als Grundlagentechnologie begreifen, die Spezialisten mit wirklich stressigen Jobs das Leben leichter machen kann. Zum Beispiel Operations-Experten wie:

  • Systemadministratoren,

  • Site Reliability Engineers,

  • Enterprise-Architekten,

  • Netzwerk- oder

  • Datenbankadministratoren.

Diesen Experten kann GenAI potenziell jede Menge Zeit und Frustration (er)sparen, wie die folgenden sechs Einsatzmöglichkeiten belegen.

1. Log-Analysen fahren

System-Logs zu überprüfen, um eventuell Muster in einer Flut von Warnmeldungen zu entdecken, ist für viele System-, Netzwerk- und Datenbank-Admins ein nicht endenwollender Task. Natürlich entwickeln die Spezialisten dabei mit der Zeit ein Gefühl dafür, welche Alerts auf ernstzunehmende Probleme hindeuten und welche nicht.

Generative AI kann und sollte in diesem Bereich nicht die finale Entscheidungsgewalt erlangen - kann den Profis aber dabei helfen, Alarmmeldungen effizienter und mit höherer Präzision zu analysieren. Schließlich untersuchen Administratoren Alerts im Regelfall per Google-Suche: Die Definition einer Warnung wird per Suchmaschine nachgeschlagen, um deren Bedeutung anschließend für den Kontext ihrer spezifischen Infrastruktur, beziehungsweise IT-Umgebung zu ermitteln. Eine Aufgabe, die nicht nur wie gemacht dafür klingt, Sprachmodelle darauf zu trainieren.

Hundertprozentige Sicherheit bei der Log-Analyse kann generative KI dabei genauso wenig gewährleisten, wie menschliche IT-Spezialisten. Aber die Technologie kann die Wahrscheinlichkeit erhöhen, dass die Profis bei verdächtigen Warnmeldungen die richtige Entscheidung treffen. Das ist nicht nur bei einem großangelegten Ausfall mitten in der Nacht hilfreich.

2. Konfigurationsdateien generieren

Konfigurationsdateien von Grund auf neu zu erstellen, ist eine Aufgabe, die Operations-Profis das Wasser im Mund zusammenlaufen lässt - nicht. Das ist angesichts der langen Liste der Herausforderungen, die das mit sich bringt, kein Wunder:

  • Formatierungskomplexitäten,

  • barocke Syntax,

  • Syntaxabweichungen zwischen Softwareversionen,

  • umgebungsspezifische Anforderungen,

  • Sicherheitsbedenken,

  • Integrationsprobleme…

Die Liste ließe sich beliebig lang fortsetzen. Um nur um eine einzige Server-Art wie Bind, Apache, Nginx oder Redis anständig für eine Produktionsumgebung aufzusetzen, ist nicht selten eine Kombination aus bis zu 20 verschiedenen Konfigurationsdateien erforderlich. Dabei müssen Admins vor allem darauf achten, dass unter anderem Netzwerk-Interface, DNS, NTP und Webserver perfekt konfiguriert sind.

Ein Sprachmodell Konfigurationsdateien schreiben zu lassen, kann also potenziell ebenfalls enorm Zeit einsparen. Selbstredend ist es allerdings keine gute Idee, der KI dabei einfach freie Hand zu lassen. Die Ergebnisse sollten stets von Operations-Profis überprüft und validiert werden. Nur so ist gewährleistet, dass etwa unternehmensspezifische Faktoren oder Compliance-Erfordernisse Berücksichtigung finden. Um Probleme bei der späteren Übersetzung der Config-Dateien (dazu gleich mehr) zu vermeiden, sollten menschliche Spezialisten sicherstellen, dass diese ordnungsgemäß dokumentiert sind.

Da Tools wie GitHub Copilot oder Ansible Lightspeed bereits GenAI nutzen, um formale Sprachsyntax zu generieren, ist es nur eine Frage der Zeit, bis ähnliche Funktionen auch für die eingeschränktere Syntax von (zum Beispiel) Konfigurationsdateien auf breiter Basis angeboten werden.

3. Konfigurationsdateien übersetzen

Konfigurationsdateien zu übersetzen, ist in den Augen mancher sogar noch aufreibender, als sie zu erstellen. Angenommen, Sie führen ein Server- oder Software-Upgrade durch und das Format der Konfigurationsdatei ändert sich dabei geringfügig. Dann müssen Sie das vorhandene Config-File in ein anderes Format übersetzen, um den Service ordnungsgemäß starten und ausführen zu können. Die funktionale Integrität der Konfigurationsdatei muss dabei erhalten bleiben - was den Task nicht leichter macht. Auch hier ist generative KI in der Lage, Admins zusätzliche Sicherheit liefern: Ein ML-Modell kann Sie dabei unterstützen, zu ermitteln, welche Konfigurationsoptionen veraltet sind und welche neu hinzugekommen sind. Auch in diesem Fall sollte der Operations-Profi allerdings den abschließenden Filter darstellen.

An dieser Stelle noch eine Best Practice: Speichern Sie Ihren Prompt-Text mit dem Artefakt, das Sie erstellen oder übersetzen. Im Fall einer Konfigurationsdatei empfiehlt es sich, diesen als Kommentar in der Datei zu speichern. So können andere Administratoren, die damit arbeiten müssen, besser nachvollziehen, was Sie sich dabei gedacht haben. Davon abgesehen ist das auch hilfreich, wenn Sie selbst der "andere" sind: Wir haben doch alle schon auf alten Code gestarrt und denjenigen verflucht, der das verbrochen hat. Nur um am Ende festzustellen, dass man es selbst war.

4. Erfahrungswerte abrufen

Die besten Ratschläge zu einem Thema kommen regelmäßig von Menschen, die diesbezüglich bereits Erfahrung gesammelt haben. Es existieren immer kleine Nuancen und Besonderheiten in Bezug auf das Standard Operating Environment (SOE) eines Unternehmens - oder noch schlimmer einmalige Änderungen an dieser SOE, um sicherzustellen, dass ein bestimmter Workload gut läuft.

Natürlich können Sie Reddit, LinkedIn, Stack Overflow und andere Plattformen durchforsten, an denen Operations-People zusammenkommen, um sich Rat zu holen. Oder sie versuchen, zwischen den Zeilen der von den Anbietern gelieferten Anwendungsfälle zu lesen, bei denen es ausschließlich Herausforderungen und keine Probleme gibt. Das Problem dabei: Die genaue Permutation von Software und Konfiguration, die Sie in Ihrer spezifischen Umgebung haben, wird mit hoher Wahrscheinlichkeit nicht abgedeckt sein. Sämtliche verfügbaren Informationen herauszufiltern, die für Ihre Umgebung relevant sind, ist entsprechend diffizil.

Sie könnten allerdings auch Tools wie ChatGPT, Bard, Perplexity oder auch ein lokales Sprachmodell wie Granite oder Mistral nutzen, um Erfahrungswerte anderer Unternehmen zu erfragen. Etwa, wenn es um einen Wechsel von einer spezifischen Public Cloud zu einem hybriden Modell oder von einer Version einer Softwareplattform zu einer anderen geht. Da Large Language Models (LLMs) inzwischen relativ gut darin (oder entsprechend lizenziert) sind, Plattformen wie Reddit und Stack Overflow zu durchforsten, kann das stundenlange Recherchearbeit ersparen.

Trotzdem gilt auch in diesem Bereich der Grundsatz, dass alle Outputs, die Sie erhalten, auch überprüft werden sollten. Nichtsdestotrotz können LLMs grundsätzlich durchaus als Ratgeber bei schwierigen architektonischen Entscheidungen dienen.

5. Shells antreiben

Sprachmodelle werden zunehmend in Shells und CLIs integriert. Das ist grundsätzlich ein eleganter und interessanter Use Case für die Technologie: Shell-Befehle wurden über die letzten 30 oder 40 Jahre hinweg organisch entwickelt und weisen eine sehr prägnante, schwer verständliche Syntax auf. Die Man-Pages sind dabei in der Regel ebenfalls keine große Hilfe - meistens wurde nämlich beides von derselben Person verfasst.

Wenn das Ziel ist, Linux einem breiten Publikum zugänglicher zu machen, sind LLM-fähige Shells das richtige Mittel: Sie können neuen Benutzern den Einstieg enorm erleichtern und auch erfahrenere User unterstützen. Wie oft haben Sie in den letzten Monaten Syntax nachgeschlagen, die Sie schon länger nicht mehr verwendet haben? Eine LLM-fähige Shell ermöglicht es Ihnen, über natürliche Sprache mit ihr zu interagieren. Ihr Input könnte beispielsweise folgendermaßen aussehen:

  • "Welche Dateien in einem Verzeichnis sind die ältesten?"

  • "Finde alle Dateien, die größer als 237 MB sind"

  • "Entferne die Zahlen aus den Namen aller Dateien in diesem Verzeichnis"

Befehle dieser Art müssen ansonsten teilweise extrem komplex mit awk, sed und bash und einer kryptischen Syntax konstruiert werden. Wer das beherrscht, konnte früher damit flexen - heute müssen Operations-Experten so viele verschiedene Technologien unterstützen, dass sie kaum noch dazu kommen, sich auf eine bestimmte zu spezialisieren. Das ist auch der springende Punkt: Die Aufgaben der Zukunft können sehr wahrscheinlich nur noch mit LLM-fähigen Shells, Plugins und Wrappers gestemmt werden.

6. Anbietersoftware bereichern

Auch die Technologieanbieter haben längst begonnen, generative KI-Funktionen in ihre Produkte einzubauen. Das wirft für die Zukunft einige interessante Anwendungsfälle auf. So könnten LLM-fähige Tools künftig dabei unterstützen, eine SOE für komplexe Software wie Betriebssysteme, Enterprise-Datenbanken oder CRM-Lösungen zu erstellen.

Enterprise-Workloads bereitzustellen, erfordert oft, Unmengen von Dokumentationen zu lesen, um Anforderungen und Best Practices zusammenzusammeln. Anschließend müssen Enterprise-, Storage-, Netzwerk- und Datenbankarchitekten das gewonnene Wissen mit ihren spezifischen Standards, Regeln und Konfigurationen verbinden. Auch das könnte in der (näheren) Zukunft anders aussehen. Zum Beispiel so: Statt Dokumentationen für SAP, Oracle NetSuite, Microsoft SQL Server oder Red Hat Enterprise Linux zu lesen und selbst eine Referenzarchitektur zusammenzusetzen, übernimmt das ein GenAI-Tool. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten - direkt in Ihre Inbox!

Jetzt CW-Newsletter sichern