Sieben Anbieter, sieben Verpflichtungen

US-Regierung drängt auf sichere und transparente KI-Entwicklung

21.07.2023
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
KI-Anbieter sollen mehr Verantwortung für ihre Systeme übernehmen, verlangt die US-Regierung und fordert von Unternehmen wie Amazon, Google, Meta und Microsoft eine Selbstverpflichtung.
Im Weißen Haus hat die US-Regierung den KI-Anbietern eine Selbstverpflichtung für mehr Sicherheit, Schutz und Vertrauen abgerungen.
Im Weißen Haus hat die US-Regierung den KI-Anbietern eine Selbstverpflichtung für mehr Sicherheit, Schutz und Vertrauen abgerungen.
Foto: Dan Thornberg - shutterstock.com

Die US-Regierung drängt die KI-Anbieter Amazon, Google, Meta, Microsoft, OpenAI, Anthropic und Inflection dazu, die Verantwortung für ihre KI-Techniken zu übernehmen. In Washington mussten Repräsentanten dieser Unternehmen eine Selbstverpflichtung für eine sichere und transparente KI-Entwicklung abgeben. Das schreibt das Weiße Haus in einer Mitteilung.

Unternehmen, die diese neuen Technologien entwickelten, stünden in der Verantwortung, die Sicherheit ihrer Produkte zu gewährleisten. "Um das Potenzial von KI optimal auszuschöpfen, ermutigt die US-Administration diese Branche, die höchsten Standards einzuhalten, um sicherzustellen, dass Innovationen nicht auf Kosten der Rechte und der Sicherheit der Amerikaner gehen."

KI braucht Sicherheit Schutz und Vertrauen

US-Präsident Joe Biden und seine Vize Pamela Harris pochen auf drei Grundprinzipien, die für die weitere Entwicklung von KI-Techniken von grundlegender Bedeutung seien: Sicherheit, Schutz und Vertrauen. Folgende Maßnahmen haben die Anbieter laut US-Regierung versprochen:

  1. Die Unternehmen verpflichten sich, ihre KI-Systeme vor der Veröffentlichung intern und extern zu testen. Dazu gehören auch Tests durch unabhängige Experten.

  2. Branchenweit sollen mit Regierungen, Behörden und Wissenschaftlern offen Informationen über KI-Risiken sowie Best Practices für mehr Sicherheit ausgetauscht werden.

  3. Security ist von Beginn an in jeder KI-Entwicklung berücksichtigt. Modelle dürfen erst freigegeben werden, wenn sämtliche Sicherheitsrisiken gecheckt wurden.

  4. Die Unternehmen machen es Dritten leicht, Schwachstellen in ihren KI-Systemen zu erkennen und zu melden.

  5. Von KI generierte Inhalte werden gekennzeichnet und lassen sich auf Anhieb als solche erkennen - beispielsweise durch eine Art Wasserzeichensystem.

  6. Anbieter berichten öffentlich über die Fähigkeiten und Limitierungen ihrer KI-Systeme. Das gilt für angemessene genauso wie für unangemessene Nutzungsmöglichkeiten.

  7. Die Unternehmen verpflichten sich, gesellschaftliche Risiken durch KI zu erforschen und ihre Systeme dahingehend zu entwickeln, dass sie dabei helfen, die großen gesellschaftlichen Probleme unserer Zeit zu lösen, zum Beispiel den Klimawandel.

Die US-Administration meint es offenbar ernst mit der KI-Regulierung. Freiwillige Selbstverpflichtungen seien ein entscheidender Schritt auf dem Weg zur Entwicklung einer verantwortungsvollen KI. Angesichts des rasanten Innovationstempos werde man die Anbieter laufend an ihre Verantwortung erinnern, hieß es. Darüber hinaus plant die US-Regierung offenbar weitere Maßnahmen. Die Rede ist von Durchführungsverordnungen, sogenannten Executive Orders durch den Präsidenten, aber auch von parteiübergreifend zu verabschiedenden Gesetzen, um die Sicherheit der Amerikaner zu gewährleisten.

US-Präsident Joe Biden will die KI-Anbieter notfalls auch mit Dekreten in die Schranken weisen.
US-Präsident Joe Biden will die KI-Anbieter notfalls auch mit Dekreten in die Schranken weisen.
Foto: Luca Perra - shutterstock.com

Mit der AI Bill of Right liegt bereits ein anderer Regulierungsentwurf vor, der derzeit diskutiert wird. Per Dekret hat Biden die US-amerikanischen Bundesbehörden angewiesen, Diskriminierung durch KI zu verhindern und die Bürgerinnen und Bürger vor schädlichen Algorithmen zu schützen. Zudem hat die Regierung einen nationalen KI-Forschungs- und Entwicklungsstrategieplan veröffentlicht. Mit rund 140 Millionen Dollar will die National Science Foundation sieben neue KI-Forschungsinstitute gründen.

US-Regierung will internationales Regelwerk für KI

Um die Gefahren und Risiken in den Griff zu bekommen, sucht die Biden-Administration den Schulterschluss mit anderen Nationen. Die Regierung werde mit Verbündeten zusammenarbeiten, um einen starken internationalen Rahmen für die Entwicklung und Nutzung von KI zu schaffen, heißt es in der jüngsten Erklärung. Man habe bereits Konsultationen mit zahlreichen Staaten geführt, darunter auch Deutschland, Frankreich und Großbritannien.

In Europa hat erst Mitte Juni das EU-Parlament mit dem AI Act ein Gesetz zur Regulierung künstlicher Intelligenz (KI) vorgeschlagen. Es verbietet "hochriskante Systeme" und bringt unterschiedlich strenge Auflagen, je nachdem, welche Risiken mit einem System verbunden sind. . Derzeit laufen die sogenannten Trilog-Gespräche zwischen Parlamentsvertretern, den EU-Mitgliedstaaten und der Europäischen Kommission, um das Gesetz in seiner endgültigen Form festzulegen. Eine Einigung soll noch vor dem Jahresende erzielt werden.