Die Superintelligenz werde die einflussreichste Technologie sein, die die Menschheit je erfunden hat, schreiben Jan Leike, Leiter des Alignment-Teams von OpenAI, und Ilja Sutskever, Mitbegründer und Chefwissenschaftler des Unternehmens, in einem Blogbeitrag. Eine solche Super-KI könne zwar helfen, viele der drängendsten Probleme der Welt zu lösen. "Aber ihre enorme Macht könnte auch sehr gefährlich werden und zur Entmachtung oder sogar zum Aussterben der Menschheit führen", warnen die beiden Experten.
Diffuse Ängste, dass eine allmächtige KI die Kontrolle über das Schicksal der Menschheit übernehmen oder gar deren Ende einläuten könnte, gibt es seit vielen Jahren. In den zurückliegenden Monaten wurden sie durch die weitreichenden Möglichkeiten von Generative AI noch einmal besonders geschürt. Konversations-Bots wie ChatGPT lassen Anwender denken, dass sie es mit einer menschenähnlichen Intelligenz zu tun haben, wenn die KI in Sekunden Antworten und Lösungen auch auf komplexe Fragen und Aufgaben liefert.
In den vergangenen Wochen sorgten wiederholt Aufrufe namhafter KI-Experten für Schlagzeilen, wonach die Entwicklung von Large Language Models (LLMs) stärker reguliert oder am besten ganz ausgesetzt werden solle. In Europa arbeiten EU-Politiker fieberhaft an einer Gesetzgebung (AI Act), um regulatorische Leitplanken für die Entwicklung und den Einsatz von KI-Systemen vorzugeben.
KI-Superintelligenz könnte in den nächsten Jahren kommen
Auch in Reihen des OpenAI-Managements, das den Wirbel mit ChatGPT Ende vergangenen Jahres erst so richtig angefacht hatte, überlegt man offenbar, wie man den Geist wieder zurück in die Flasche bekommt. Bei dem KI-Pionier geht man davon aus, dass mit einer solchen Superintelligenz noch innerhalb des laufenden Jahrzehnts zu rechnen ist. Die zentrale Frage, die sich die Verantwortlichen des KI-Entwicklers stellen, lautet: "Wie können wir sicherstellen, dass KI-Systeme, die viel intelligenter sind als Menschen, dennoch den menschlichen Absichten folgen?"
"Derzeit haben wir keine Lösung, um eine potenziell superintelligente KI zu kontrollieren und zu verhindern, dass sie aus dem Ruder läuft", schreiben Leike und Sutskever. Die derzeitigen Techniken wie zum Beispiel das verstärkende Lernen (Reinforcement Learning) durch menschliches Feedback, beruhten auf der Fähigkeit des Menschen, die KI zu überwachen. "Menschen werden jedoch nicht in der Lage sein, KI-Systeme, die viel intelligenter sind als sie selbst, zuverlässig zu überwachen", lautet die Warnung der OpenAI-Manager.
Superforscher vs. Superintelligenz
Um zu verhindern, dass die KI den Menschen über den Kopf wächst, will OpenAI ein Team aus Top-Forschern aufstellen, dass an diesem Problem arbeiten soll. Ein Fünftel der derzeit von OpenAI genutzten Compute-Power soll in den kommenden vier Jahren allein diesem Team zur Verfügung gestellt werden. Das Ziel: OpenAI will eine Art menschengerechte automatische Super-Alignment-Instanz entwickeln. Vereinfacht gesagt, bedeutet dieser Ansatz, eine KI zu entwickeln, die andere KIs kontrollieren soll, damit der Menschheit kein Schaden entsteht.
Keine leichte Aufgabe, räumen auch die OpenAI-Verantwortlichen ein. "Wir gehen davon aus, dass sich unsere Forschungsprioritäten erheblich weiterentwickeln werden, wenn wir mehr über das Problem erfahren", schreiben Leike und Sutskever. Wahrscheinlich werde man im Laufe der Arbeiten ganz neue Forschungsbereiche hinzufügen müssen. Der ChatGPT-Erfinder verspricht Offenheit an dieser Stelle: "Wir planen, in Zukunft mehr über unsere Roadmap zu berichten."
Leike und Sutskever werden das neue Team unter dem Dach von OpenAI leiten. Hier sollen Forscher und Entwickler aus verschiedenen Bereichen des Unternehmens zusammenarbeiten. Darüber hinaus wirbt OpenAI um externes Know-how. Superintelligenz an die menschlichen Bedürfnisse und Anforderungen anzupassen, ist eines der wichtigsten ungelösten technischen Probleme unserer Zeit. "Wir brauchen die besten Köpfe der Welt, um dieses Problem zu lösen."