Der Moment der KI-Ernüchterung naht

Kommentar  12.07.2024
Von 
Matt Asay ist Autor der US-Schwesterpublikation Infoworld.com.
Sobald wir die Enttäuschung überwunden haben, dass KI nicht alles lösen kann, können wir sie für Dinge einsetzen, für die sie tatsächlich gut geeignet ist.
Auch KI kann die überzogenen Erwartungen nicht erfüllen. Aber man kann lernen, mit den Schwächen zu leben und die Stärken zu nutzen.
Auch KI kann die überzogenen Erwartungen nicht erfüllen. Aber man kann lernen, mit den Schwächen zu leben und die Stärken zu nutzen.
Foto: Olena Yakobchuk - shutterstock.com

Es hat nicht lange gedauert. Nach all den "Dieses Mal ist es anders"-Kommentaren zur künstlichen Intelligenz holt Unternehmen langsam die Realität ein: Nein, KI wird Ihnen nicht den Job wegnehmen. Sie wird nicht Ihren Code schreiben. Sie wird nicht all Ihre Marketing-Texte schreiben (es sei denn, Sie sind bereit, wieder Menschen einzustellen, um sie zu korrigieren). Und nein, sie ist noch weit von einer künstlichen allgemeinen Intelligenz (AGI) entfernt und wird es auch in naher Zukunft sein. Vielleicht wird dieses Ziel nie erreicht.

Wir haben die Talsohle der Desillusionierung in Bezug auf die KI erreicht, wenn wir gemeinsam aufhören zu glauben, dass die Singularität kurz bevorsteht. Und anfangen, Wege zu finden, wie die KI den Menschen ergänzt, nicht ersetzt. Kein Grund zur Sorge. KI wird ihren Platz haben, aber eben nicht überall.

Von jetzt an geht's bergab: Laut Gartner Hype Cycle for Artificial Intelligence 2024 haben KI-Trends wie GenAI bereits den Peak überschritten.
Von jetzt an geht's bergab: Laut Gartner Hype Cycle for Artificial Intelligence 2024 haben KI-Trends wie GenAI bereits den Peak überschritten.
Foto: Gartner

So viele überzogene Hoffnungen

Künstliche Intelligenz, ob generative KI, maschinelles Lernen oder Deep Learning, war nie in der Lage, die immensen Erwartungen zu erfüllen, die wir in sie gesetzt haben. Der Grund, warum wir es so weit kommen ließen, war vermutlich, weil wir KI nicht begreifen konnten. Es war wie Magie, Black-Box-Algorithmus, nehmen Prompts entgegen und generiert verrückte, realistische Bilder oder erstellt Texte, die wohlüberlegt und intelligent klingen. Und warum auch nicht? Die wichtigsten großen Sprachmodelle (LLMs) wurden alle anhand von Abermillionen von Beispielen anderer Menschen, die vernünftig und intelligent sind, trainiert, und Tools wie ChatGPT geben nur das wieder, was sie "gelernt" haben.

Das Problem ist jedoch, dass LLMs eigentlich nichts lernen. Sie können nicht logisch denken. Sie sind zwar gut im Mustervergleich, aber nicht darin, aus früheren Trainingsdaten auf zukünftige Probleme zu schließen, wie eine aktuelle Studie des IEEE ergab. Die Softwareentwicklung war einer der größten Erfolge für GenAI-Tools, aber vielleicht nicht ganz in dem Maße, wie wir gehofft hatten. Beispielsweise fehlten GPT-3.5 Trainingsdaten nach 2021, weshalb es Schwierigkeiten mit einfachen Codierungsproblemen auf LeetCode hatte, die neuere Informationen erforderten. Die Studie ergab, dass die Erfolgsquote bei einfachen Problemen von 89 auf 52 Prozent sank und die Fähigkeit, Code für schwierige Codierungsprobleme zu erstellen, von 40 auf 0,66 Prozent.

Laut Studienautorin Michelle Hampson zeigt das Ergebnis, dass ChatGPT "nicht über die kritischen Denkfähigkeiten eines Menschen verfügt und nur Probleme lösen kann, mit denen es zuvor bereits konfrontiert wurde." Ihr Kollege Tim Klapdor drückt sich weniger höflich aus: "ChatGPT hat das Thema nicht gelernt, es hat keine Nachforschungen angestellt, es hat keine Validierung durchgeführt und es hat keine neuen Gedanken, Ideen oder Konzepte beigesteuert. ChatGPT hat einfach alle diese Daten 'kolonisiert' ... und jetzt kann es diese Informationen zeitnah kopieren und einfügen, weil es (OpenAI) 700.000 Dollar pro Tag für Rechenleistung ausgibt." Autsch.

Das bedeutet nicht, dass GenAI für die Softwareentwicklung oder andere Bereiche nutzlos ist, aber es bedeutet, dass wir unsere Erwartungen und Herangehensweise neu ausrichten müssen.

Wir haben immer noch nicht verstanden

Diese Enttäuschung ist nicht nur ein KI-Problem. Wir durchlaufen diesen Prozess der übersteigerten Erwartungen und der darauffolgenden Ernüchterung mit so ziemlich jeder neuen Technologie. Selbst etwas so Bewährtes wie die Cloud wird immer wieder in Frage gestellt. Mein InfoWorld-Kollege David Linthicum hat sich kürzlich über Cloud Computing ausgelassen und argumentiert, dass "die erwarteten Produktivitätssteigerungen und Kosteneinsparungen größtenteils nicht eingetreten sind".

Linthicum hat auch die Serverless-Technologie kritisiert. "Die serverlose Technologie wird aufgrund des Aufkommens anderer Cloud-Computing-Paradigmen wie Edge Computing und Micro Clouds weiter in den Hintergrund treten", sagt er. Warum? Weil diese "differenziertere Lösungen auf den Markt gebracht haben, die auf spezifische Geschäftsanforderungen zugeschnitten sind, anstatt die Einheitsgröße des serverlosen Computings zu verwenden."

In diese Richtung bewegt sich auch die KI. Ich sehe bereits, wie Unternehmen scheitern, wenn sie die generelle KI als die Antwort auf alles betrachten, aber sie sind erfolgreich, wenn sie die generelle KI als ergänzende Lösung für einige Dinge einsetzen. Es ist nicht an der Zeit, die KI aufzugeben. Ganz im Gegenteil. Es ist vielmehr an der Zeit, darüber nachzudenken, wie und wo sie eingesetzt werden kann. Dann wird sie, wie so viele Trends zuvor (Open Source, Cloud, Mobile usw.), zu einer wichtigen Ergänzung unserer Arbeitsweise werden, anstatt die einzige Art und Weise zu sein, wie wir arbeiten. (mb)