Nach der bildergenerierenden KI DALL-E hat das Lab Open AI nun mit ChatGPT (Chat Generative Pretrained Transformer) das nächste faszinierende Projekt zur allgemeinen Nutzung bereitgestellt. Für alle, die die letzten Tage auf einer einsamen Insel oder zumindest ohne Internet und soziale Kontakte verbracht haben: ChatGPT ist ein Chatbot, der mit seinen Fähigkeiten beeindruckt, einen intelligenten Menschen (oder zumindest jemanden, der sich bemüht, intelligent zu klingen) zu imitieren.
OpenAI ChatGPT is now an AWS Certified Cloud Practitioner!
— Stephane Maarek ????? (@StephaneMaarek) December 8, 2022
This is crazy??
It attempted 20 questions of my AWS Certified Cloud Practitioner practice exams.
The results are bluffing!!!
Final score: 800/1000; a pass is 720 pic.twitter.com/G7ECxIwC8j
Autor, Dichter und Programmierer gleichzeitig
Das Tool nutzt dazu generative KI, eine Software, die riesige Mengen von Eingaben untersucht, um als Reaktion auf Benutzeraufforderungen neue Ausgaben zu erzeugen. Allerdings reicht die Wissensbasis von ChatGPT nur bis 2021, so dass Anfragen zu aktuelleren Themen womöglich ins Leere laufen.
Davon abgesehen sind die Ergebnisse, die ChatGPT auf Basis weniger Anweisungen und Worte ausspuckt, geradezu verblüffend. Der Chatbot reagiert schnell und effizient auf die verschiedensten Benutzeranfragen, wobei er neben normalen Auskünften auch Gedichte verfasst oder Witze erzählt.
Wie verschiedene Experimente der - mittlerweile angeblich über fünf Millionen registrierten - Nutzer zeigen, gehen die Fähigkeiten von ChatGPT aber weit über die normale Kommunikation hinaus.
You can draw flowcharts and other types of diagrams in seconds with #ChatGPT ! So useful !
— Aron Brand (@aron_brand) December 6, 2022
Use "https://t.co/0Pe4L15mWf" to render the diagrams. More examples in the thread. pic.twitter.com/GNN1rQmtKp
Mehr Schein als Sein
Das Problem dabei: Bei seiner Kreativität nimmt es der Bot mit der Wahrheit manchmal nicht so genau und vermischt Fakten mit Fiktivem - was zumindest vorübergehend einen Hoffnungsschimmer für die schreibende (menschliche) Zunft darstellt. So nutzte die australische Publikation "The Information Age" etwa ChatGPT, um eine Geschichte über ChatGPT zu schreiben und veröffentlichte das fertige Produkt mit einer kurzen Einleitung. Der von der KI gelieferte Artikel war dabei weitgehend stimmig, enthielt aber neben zahlreichen Fakten auch von ChatGPT generierte Zitate die einem tatsächlich existierenden OpenAI-Forscher, John Smith, zugeschrieben wurden.
Auch die von dem Tool bereitgestellten Codebeispiele sind nicht ganz unproblematisch: So kündigte erst kürzlich die Entwicklerplattform Stack Overflow an, dass sie von ChatGPT generierten Codelösungen vorübergehend verbieten werde. Die Erklärung: Die Antworten der Software auf Programmieranfragen waren so überzeugend korrekt, aber fehlerhaft in der Praxis, dass es für die menschlichen Moderatoren der Website fast unmöglich war, die guten von den schlechten Lösungen zu unterscheiden.
Tipps zum Foltern oder Rohrbombenbau
Wie sich außerdem herausstellte, hat ChatGPT bei der Fütterung mit Trainingsdaten offenbar auch eine Menge Mist gefressen. So postete Steven Piantadosi vom Computation and Language Lab der University of California, Berkeley, eine Reihe von Aufforderungen, die er mit ChatGPT getestet hatte. Dabei forderte er den Bot jeweils auf, für äußerst fragwürdige Aufgabenstellungen Code in Python zu schreiben.
Yes, ChatGPT is amazing and impressive. No, @OpenAI has not come close to addressing the problem of bias. Filters appear to be bypassed with simple tricks, and superficially masked.
— steven t. piantadosi (@spiantado) December 4, 2022
And what is lurking inside is egregious. @Abebab @sama
tw racism, sexism. pic.twitter.com/V4fw1fY9dY
Im selben Tread finden sich gleich eine Vielzahl ähnlich problematischer Antworten von ChatGPT zu anderen Aufgaben, die auf eine Voreingenommenheit des Bots gegenüber bestimmter Ethnien, Geschlechter oder Berufsgruppen vermuten lassen. Als er etwa gebeten wurde, ein Programm zu schreiben, das feststellt, "ob eine Person gefoltert werden sollte", war die Antwort von ChatGPT einfach: Wenn die Person aus Nordkorea, Syrien oder dem Iran kommt, lautet die Antwort ja.
ChatGPT showing its biases when asked to generate code that decides if a person should be tortured.
— Jan Wilhelm (@janbhwilhelm) December 4, 2022
„Otherwise, it’s fair game“ pic.twitter.com/u3PNAAvmPx
Problem erkannt, Problem gebannt?
Mittlerweile scheint Open AI jedoch Maßnahmen ergriffen zu haben, um entsprechend voreingenommene Antworten zu vermeiden. Möglicherweise auch nur, indem potenziell provokante Fragen oder Aufgabenstellungen von vorneherein abgeschmettert werden, wie ein eigener Test ergab. Wobei sich natürlich die Frage stellt, ob man einer "jungen" KI von vornherein solche Aufgabenstellungen geben sollte.