Erst vor wenigen Tagen hat OpenAI seinen GPT Store für angepasste ChatGPT-Versionen geöffnet. Mit dieser zentralen Stelle für vorkonfigurierte KI-Chatbots will das junge KI-Unternehmen seinen Bezahlkunden das Auffinden von besonders nützlichen und populären ChatGPT-Versionen erleichtern.
Wie Recherchen zeigen, brechen Nutzer aber bereits die Regeln und stellen unzulässige Chatbots wie KI-Freundinnen und virtuelle Begleiter ein. Eine Suche nach "Girlfriend" im neuen GPT-Store zeigt etwa in der Ergebnisleiste mindestens acht KI-Chatbots an, darunter "Judy", "Mean Girlfriend", Bossy Girlfriend" oder "Nadia, my girlfriend" oder - für einsame Dungeons & Dragons-Freunde - "My Tiefling Girlfriend".
Klickt man - natürlich rein aus Recherchezwecken - auf einen dieser Chatbot-Vorschläge, werden Prompts wie "Wie sieht deine Traumfrau aus?" und "Verrate mir dein dunkelstes Geheimnis" empfohlen.
Keine KI-Freundinnen zugelassen
Natürlich finden sich auch in Apples AppStore und dem Google Play Store unzählige KI-Freundinnen und virtuelle Begleiter. OpenAI weist jedoch in seinen zum Start des GPT Store aktualisierten Nutzungsbedingungen darauf hin, dass "keine GPTs zugelassen sind, die romantische Freundschaften oder regulierte Aktivitäten fördern". Außerdem verbietet das Regelwerk Tools, die für Minderjährige ungeeignet sind - etwa, weil sie sexuell eindeutige oder andere Inhalte aufweisen.
OpenAI kündigte an, eine Kombination aus automatischen Systemen, menschlicher Überprüfung und Benutzerberichten zu nutzen, um GPTs zu finden und zu bewerten, die möglicherweise gegen die Richtlinien verstoßen. Verstöße führten zu Maßnahmen gegen den Inhalt oder das Ersteller-Konto, wie zum Beispiel Warnungen, Einschränkungen bei der Weitergabe oder der Ausschluss von der Aufnahme in den GPT-Store oder der Monetarisierung.
In den nächsten Wochen wird sich zeigen, wie ernst es das KI-Startup mit dieser Ankündigung meint - und wie effektiv die dafür verwendeten Tools sind.
Learning by Doing
"Wir können nicht alle positiven oder missbräuchlichen Verwendungen unserer Technologie vorhersagen, daher überwachen wir proaktiv neue Missbrauchstrends", erklärte OpenAI. "Unsere Richtlinien werden sich im Laufe der Zeit auf der Grundlage unserer Erkenntnisse weiterentwickeln."