Foto: 13FTStudio - shutterstock.com
Im Firmenblog von OpenAI schreiben Altman und seine OpenAI-Mitgründer Greg Brockman und Ilya Sutskever, es sei "denkbar, dass KI-Systeme in den nächsten zehn Jahren in den meisten Bereichen die Fähigkeiten von Experten übertreffen." Die neue "Superintelligenz" werde leistungsfähiger sein als alle anderen Technologien, mit denen die Menschheit in der Vergangenheit konfrontiert war. Damit die Menschen von den Vorteilen profitieren könnten, müssten sie aber die Risiken beherrschen, warnen die ChatGPT-Erfinder.
"Angesichts der Möglichkeit eines existenziellen Risikos können wir uns nicht einfach nur reaktiv verhalten", schreiben die OpenAI-Vordenker und bemühen Beispiele wie die Kernenergie und die synthetische Biologie, die nur deshalb zu Erfolgen geworden seien, weil die Risiken beherrscht werden konnten. "Wir müssen auch die Risiken der KI-Technologie abmildern. Dabei wird die Superintelligenz eine besondere Behandlung und Koordination erfordern", schreiben die Autoren.
3 OpenAI-Vorschläge zur KI-Regulierung
Altman und seine Mitstreiter stellen drei - eher vage - Ideen zur Diskussion, wie KI reguliert werden könnte:
Die großen Entwicklungsprojekte sollten "zu einem gewissen Grad" koordiniert werden, um zu gewährleisten, dass die allgemeine Sicherheit aufrechterhalten bleibt und eine reibungslose Integration der superintelligenten Systeme in die Gesellschaft ermöglicht wird. Das könne auf verschiedene Weisen geschehen, beispielsweise, indem große Regierungen auf der ganzen Welt ein übergreifendes Projekt aufsetzten, in das viele der aktuellen Entwicklungsbemühungen von Unternehmen integriert würden.
Ebenso sei denkbar, dass sich die Industrie darauf einige, die Fähigkeiten der KI Jahr für Jahr nur in ganz bestimmten, festgesetzten Grenzen anwachsen zu lassen. "Und natürlich sollten die einzelnen Unternehmen zu einem extrem hohen Standard für verantwortungsvolles Handeln verpflichtet werden", so die Autoren."Irgendwann werden wir wahrscheinlich eine Behörde für den Umgang mit der Superintelligenz brauchen, die von ihren Aufgaben her vergleichbar mit der Internationalen Atomenergie-Organisation (IAEO) ist", heißt es in dem Blogbeitrag. Jede Initiative, die eine bestimmte Schwelle jenseits der bisher gängigen Möglichkeiten übersteige, könne einer solchen internationalen Behörde unterstellt werden. Diese inspiziere dann die Systeme, führe Audits durch, prüfe die Einhaltung von Sicherheitsstandards, setze Schranken für den KI-Einsatz und vieles mehr.
Kontrolle und Messbarkeit könnten zumindest bis zu einem gewissen Grad durch das Tracking von Rechen- und Energiebedarf hergestellt werden. "Das lässt uns hoffen, dass diese Idee tatsächlich umsetzbar ist." Zur Umsetzung schlagen Altman & Co. vor, dass sich im ersten Schritt einzelne Unternehmen freiwillig dazu verpflichten, bestimmte Vorkehrungen zu implementieren und auszuprobieren, die später dann von der weltweiten KI-Behörde übernommen würden.
Einzelne Länder könnten sich zudem als Vorreiter engagieren und mit der Umsetzung beginnen. "Es wäre wichtig, dass sich eine solche Behörde auf die Beherrschung existenzieller Risiken konzentriert und nicht auf Fragen, die von den einzelnen Ländern beantwortet werden können." Beispielsweise sei die Definition dessen, was eine KI sagen dürfe, kulturabhängig und müsse auf Landesebene entschieden werden.
Schließlich setzen sich die Autoren dafür ein, bessere technische Möglichkeiten zu schaffen, damit Superintelligenz sicher einsetzbar wird. "Dies ist eine offene Forschungsfrage, mit der wir und viele andere sich intensiv beschäftigen."
Einfache KI muss unreguliert bleiben
Altman und seine Kollegen betonen in ihrem Blogbeitrag, wie wichtig es sei, dass Unternehmen und Open-Source-Projekte weiter unbehelligt Modelle "unterhalb einer signifikanten Leistungsschwelle" entwickeln könnten. Zu viele Sicherheitsvorkehrungen, Standards und Audits seien hier nicht hilfreich, sie würden im Zweifel die Innovation bremsen. "Die Systeme, um die es uns geht, werden eine Macht haben, die jede bisher geschaffene Technologie übertrifft." Diese Technologien bräuchten angemessene Kontrollmechanismen.
Foto: Microsoft
Die Verwaltung dieser leistungsstärksten Systeme und die Entscheidung über ihren Einsatz müssten einer starken öffentlichen Kontrolle unterliegen. "Wir sind der Meinung, dass die Menschen auf der ganzen Welt demokratisch über die Grenzen und Vorgaben für KI-Systeme entscheiden sollten. Wir wissen noch nicht, wie ein solcher Mechanismus aussehen soll, aber wir planen, mit seiner Entwicklung zu experimentieren."
Superintelligente Systeme machen die Welt besser
Bei OpenAI sei man überzeugt davon, dass superintelligente Systeme "zu einer viel besseren Welt führen werden, als wir sie uns heute vorstellen können". Erste Beispiele ließen sich in Bereichen wie Bildung, kreative Arbeit oder persönliche Produktivität bereits erkennen. "Das Wirtschaftswachstum und die Steigerung der Lebensqualität werden immens sein."
Die Entwicklung einer Superintelligenz aufzuhalten, sei riskant und unrealistisch. "Das würde so etwas wie ein globales Überwachungssystem erfordern. Dass es funktionieren würde, ist keineswegs sicher. Wir müssen es also richtig machen." (hv)