Von Sofortübersetzungen über Ideenfindung bis hin zum vollständigen Verfassen von E-Mails und Texten: ChatGPT hält Einzug in unser tägliches Leben. Es gibt jedoch einige Nachteile und Einschränkungen, die ChatGPT und die KI im Allgemeinen daran hindern, ihr volles Potenzial zu entfalten. Wir glauben, dass eine ereignisgesteuerte Architektur den Informationsfluss zwischen solchen Systemen verbessern kann, die Ereignisse "veröffentlichen", und denen, die Informationen empfangen beziehungsweise "abonnieren".
Die Entwicklung von Anwendungen mit EDA trägt dazu bei, interne Funktionen miteinander zu verbinden und reaktionsfähig zu machen. Das bedeutet, dass EDA Anfragen entgegennimmt und bearbeitet, wenn ChatGPT aufgerufen wird. So lassen sich Reaktionszeiten verkürzen und der Energieverbrauch reduzieren. Für B2B- und B2C-Unternehmen ergeben sich neue Chancen im E-Commerce (Lesen Sie auch: So hilft ChatGPT Shop-Betreibern). Und so funktioniert es.
Automatische Antworten durch Straffung des Frage-Antwort-Zyklus
Heute funktioniert ChatGPT auf eine Art und Weise, die wir Techniker "Frage/Antwort" nennen. Man könnte auch sagen: Bittet und ihr werdet bekommen. Stellen Sie sich vor, ChatGPT könnte Ihnen proaktiv etwas schicken, von dem das System weiß, dass es Sie interessiert!
Nehmen wir an, Sie verwenden ChatGPT, um To-dos aus einem Zoom-Meeting zusammenzufassen und zu notieren. Statt dass jeder Teilnehmer um die Notizen bitten muss, würde eine EDA es ChatGPT überlassen, die Notizen an alle Teilnehmenden gleichzeitig zu senden, auch an diejenigen, die das Meeting verpasst haben. Alle wären automatisch und sofort auf dem neuesten Stand der Besprechungsergebnisse. ChatGPT würde proaktiv eine Nachricht an alle Empfänger senden, statt im Laufe der Zeit eine Reihe von Frage/Antwort-Interaktionen zu verarbeiten. Für die Benutzer würde sich die Servicequalität verbessern.
Jede Gruppenaktivität, die von ChatGPT unterstützt wird und dieselben Vorschläge benötigt, kann von einer solchen Funktion profitieren. Das gilt etwa für Entwicklerteams, die gemeinsam an einer Codebasis arbeiten. Statt dass ChatGPT jedem Entwickler in seiner integrierten Entwicklungsumgebung (IDE) Änderungen und Verbesserungen vorschlägt, könnte die IDE die Vorschläge "abonnieren". Die zugrundeliegende EDA-Technologie wäre dann in der Lage, die Empfehlungen an alle registrierten Entwickler weiterzuleiten, wenn sie die Codebasis veröffentlichen.
Energieverbrauch von ChatGPT senken - durch intelligente Ressourcennutzung
ChatGPT ist bekanntlich ressourcenintensiv und daher teuer in der Verarbeitung. Und es benötigt eine Menge spezieller Chips, die sogenannten Grafikprozessoren (GPUs). Die hohe Auslastung der GPUs - derzeit schätzungsweise knapp 29.000 - die für das Training des ChatGPT-Modells und die Verarbeitung von Benutzeranfragen erforderlich sind, verursacht erhebliche Kosten, die schätzungsweise zwischen 0,11 und 0,36 Dollar pro Anfrage liegen.
Und dann sind da noch die Umweltkosten des Modells. Der hohe Stromverbrauch der GPUs trägt zur Energieverschwendung bei. Data Scientists schätzen den täglichen CO2-Fußabdruck von ChatGPT auf 23,04 Kilogramm CO2-Äquivalente (CO2e), was in etwa dem anderer großer Sprachmodelle wie BLOOM entspricht.
Der Bericht weist jedoch darauf hin, dass "die Schätzung des täglichen CO2-Fußabdrucks von ChatGPT zu hoch sein könnte, sollte es den OpenAI-Ingenieuren gelingen, Anfragen auf intelligentem Wege effizienter zu verarbeiten." Es gibt also Raum für Verbesserungen bei der CO2-Bilanz. Hier kann eine ereignisgetriebene Architektur tatsächlich helfen: Durch ihre Implementierung kann ChatGPT seine Ressourcen besser nutzen, indem Anfragen nur dann bearbeitet werden, wenn sie eingehen, statt ständig zu laufen.