Podcast Generative AI

ChatGPT braucht weiter menschliche Kontrolle

07.03.2023
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Texten, Bilder malen und Software coden – KI-Tools wie ChatGPT beherrschen die Tech-Schlagzeilen. Was von der KI-Technik zu halten ist und wo Grenzen liegen, erklärt Katharina Zweig, Professorin an der RPTU Kaiserslautern in unserem Podcast.
Eine KI sich selbst zu überlassen, wäre fatal - es braucht weiter den prüfenden Blick eines Menschen, auf die Trainingsdaten wie auf die Ergebnisse.
Eine KI sich selbst zu überlassen, wäre fatal - es braucht weiter den prüfenden Blick eines Menschen, auf die Trainingsdaten wie auf die Ergebnisse.
Foto: Gorodenkoff - shutterstock.com

"Offensichtlich hat ChatGPT mein Buch nicht gelesen", stellt Katharina Zweig, die das Algorithm Accountability Lab am Fachbereich Informatik der RPTU Kaiserslautern leitet, mit einem Schmunzeln fest. Denn der Konversationsbot aus dem Hause OpenAI weiß auf die Frage, was die renommierte Professorin und Begründerin der Sozioinformatik in Deutschland denn so von KI halte, keine so rechte Antwort und verweist darauf, man möge doch besser in der einschlägigen Fachliteratur nachschlagen.

KI regulieren, aber mit Augenmaß

"ChatGPT ist trotzdem eine Revolution", sagt Zweig, auch wenn der Bot seine Schwierigkeiten haben mag, Personen richtig einzuordnen. Das liege schlichtweg daran, weil Daten fehlen oder zu alt seien. Den Politiker Olaf Scholz kennt ChatGPT, aber nicht als Bundeskanzler, weil die Trainingsdaten nur bis zum Jahr 2021 reichten. Das Revolutionäre macht die Professorin an der Tatsache fest, dass man mit ChatGPT erstmals in natürlicher Sprache mit der Maschine kommunizieren und ihr auch komplexere Aufgaben übertragen könne.

Trotzdem bleibe der Faktor Mensch weiter sehr wichtig, sagt Zweig. Gerade wenn es darum gehe, die Systeme mit den richtigen Daten zu trainieren und die Ergebnisse einzuordnen und zu bewerten. "Ist es Dreckdreck oder nur Dreck?" Für die richtigen Antworten auf solchen Fragen, müsse man die damit betrauten Menschen gut bezahlen und betreuen, fordert die Wissenschaftlerin. Das Ganze an obskure Firmen in Afrika outzusourcen, sei ein Skandal.

Zweig plädiert auch für eine KI-Regulierung, aber mit Augenmaß und nach Risikoklassen. Ob eine Maschine gefährlich ist, hängt von ihrer Verwendung ab. Die Idee, nur das KI-System selbst mit einem Prüfsiegel zu versehen, hält die Professorin für falsch. "Man muss immer darauf schauen, in welchem Kontext es verwendet wird, und welcher Schaden entstehen würde, wenn sich die Maschine falsch entscheidet." Von Verboten, wie sie derzeit in Schulen und Universitäten hält Zweig indes nichts. Wie der Taschenrechner werde auch KI-Technik in der Bildung ihren Platz finden.

Nur die KI-Technik zu regulieren, davon hält Katharina Zweig wenig. Man müsse immer auch den Verwendungskontext mit berücksichtigen, und wie hoch der Schaden wäre, den eine Maschine anrichten könnte.
Nur die KI-Technik zu regulieren, davon hält Katharina Zweig wenig. Man müsse immer auch den Verwendungskontext mit berücksichtigen, und wie hoch der Schaden wäre, den eine Maschine anrichten könnte.
Foto: Felix Schmitt

Welchen Tipp die Uni-Dozentin Katharina Zweig noch für Schülerinnen und Schüler parat hat, damit Lehrerinnen und Lehrer nicht gleich auf den ersten Blick erkennen, dass der Bot die Hausaufgaben gemacht hat, hören Sie hier in unserem Podcast.