Exklusiv: Die USA müssen „entschieden“ handeln, um eine „ausrottende“ Bedrohung durch KI abzuwenden, so ein von der Regierung in Auftrag gegebener Bericht

(SeaPRwire) –   Die US-Regierung muss “schnell und entschlossen” handeln, um wesentliche Risiken für die nationale Sicherheit abzuwenden, die sich aus Künstlicher Intelligenz (KI) ergeben, die im schlimmsten Fall eine “aussterbensbedrohende Gefahr für die menschliche Spezies” darstellen könnte, so ein vom US-Staatsministerium in Auftrag gegebener Bericht, der am Montag veröffentlicht wurde.

“Die aktuelle Entwicklung fortschrittlicher KI birgt dringende und zunehmende Risiken für die nationale Sicherheit”, heißt es in dem Bericht, den TIME vorab einsehen konnte. “Der Aufstieg fortgeschrittener KI und AGI (Künstliche Allgemeine Intelligenz) hat das Potenzial, die globale Sicherheit auf ähnliche Weise zu destabilisieren wie die Einführung von Atomwaffen.” AGI ist eine hypothetische Technologie, die die meisten Aufgaben auf menschlichem Niveau oder darüber ausführen könnte. Solche Systeme existieren derzeit nicht, aber die führenden KI-Labore arbeiten darauf hin und könnten sie innerhalb der nächsten fünf Jahre oder weniger erreichen.

Die drei Autoren des Berichts arbeiteten mehr als ein Jahr daran und sprachen mit über 200 Regierungsbeamten, Experten und Mitarbeitern führender KI-Unternehmen wie , , und im Rahmen ihrer Forschung. Berichte einiger dieser Unterhaltungen deuten darauf hin, dass sich viele Sicherheitsmitarbeiter in fortschrittlichen Laboren Sorgen machen über verzerrte Anreize, die Entscheidungsfindungen der Führungskräfte dieser Unternehmen lenken, die ihre Firmen kontrollieren.

Das fertige Dokument mit dem Titel “An Action Plan to Increase the Safety and Security of Advanced AI” empfiehlt eine Reihe einschneidender und beispielloser politischer Maßnahmen, die – wenn umgesetzt – die KI-Branche radikal verändern würden. Der Kongress sollte es illegal machen, so die Empfehlung, KI-Modelle mit mehr als einer bestimmten Rechenleistung zu trainieren. Die Schwelle sollte von einer neuen Bundes-KI-Behörde festgelegt werden, auch wenn der Bericht vorschlägt, sie knapp über dem Niveau der Rechenleistung anzusiedeln, die für aktuell führende Modelle wie OpenAIs GPT-4 und Googles Gemini verwendet wird. Die neue KI-Behörde sollte KI-Unternehmen an der “Spitze” der Branche verpflichten, staatliche Genehmigungen für das Training und den Einsatz neuer Modelle über einer etwas niedrigeren Schwelle einzuholen, fügt der Bericht hinzu. Die Behörden sollten auch “dringend” ein Verbot der Veröffentlichung der “Gewichte”, also der inneren Funktionsweise, leistungsstarker KI-Modelle, beispielsweise unter Open-Source-Lizenzen in Erwägung ziehen, wobei Verstöße möglicherweise mit Gefängnisstrafen geahndet werden könnten, so der Bericht.

Der Bericht wurde im Auftrag des US-Außenministeriums im November 2022 im Rahmen eines Bundesvertrags im Wert von 250.000 US-Dollar in Auftrag gegeben, wie aus öffentlichen Unterlagen hervorgeht. Er wurde von Gladstone AI verfasst, einem Unternehmen mit vier Mitarbeitern, das Regierungsbeamte über KI auf dem Laufenden hält. (Teile des Aktionsplans empfehlen, dass die Regierung stark in die Ausbildung von Beamten zu den technischen Grundlagen von KI-Systemen investiert, damit sie die Risiken besser verstehen können.) Der Bericht wurde am 26. Februar als 247-seitiges Dokument an das Außenministerium übergeben. Das Außenministerium reagierte nicht auf mehrere Anfragen nach einem Kommentar zu dem Bericht. Die Empfehlungen “spiegeln nicht die Ansichten des US-Außenministeriums oder der US-Regierung wider”, heißt es auf der ersten Seite des Berichts.

Die Empfehlungen des Berichts, von denen viele zuvor undenkbar waren, folgen auf eine schwindelerregende Reihe wichtiger Entwicklungen in der KI, die viele Beobachter veranlasst haben, ihre Einstellung zur Technologie neu zu bewerten. Der Chatbot ChatGPT, der im November 2022 veröffentlicht wurde, war das erste Mal, dass sich diese Geschwindigkeit des Wandels der Öffentlichkeit insgesamt zeigte und viele Menschen infrage stellten, ob zukünftige KIs existenzielle Risiken für die Menschheit darstellen könnten. Seitdem wurden in schneller Folge neue Werkzeuge mit mehr Fähigkeiten veröffentlicht. Während Regierungen auf der ganzen Welt darüber diskutieren, wie KI am besten zu regulieren ist, bauen die größten Tech-Unternehmen schnell die Infrastruktur aus, um die nächste Generation leistungsfähigerer Systeme zu trainieren – in einigen Fällen planen sie, 10 oder 100 Mal mehr Rechenleistung einzusetzen. Inzwischen glauben mehr als 80% der US-Bevölkerung, dass KI versehentlich eine katastrophale Situation verursachen könnte, und 77% der Wähler sind der Meinung, dass die Regierung mehr tun sollte, um KI zu regulieren, wie aus jüngsten Umfragen des AI Policy Institute hervorgeht.

Ein Verbot des Trainings fortgeschrittener KI-Systeme über einer bestimmten Schwelle könnte, so der Bericht, “Dynamiken zwischen allen KI-Entwicklern moderieren” und zu einer Verringerung des Tempos der Chipindustrie bei der Herstellung leistungsfähigerer Hardware beitragen. Langfristig könnte eine Bundes-KI-Behörde die Schwelle anheben und das Training leistungsfähigerer KI-Systeme erlauben, sobald ausreichende Beweise für die Sicherheit führender Modelle vorliegen, schlägt der Bericht vor. Gleichermaßen könnte die Regierung die Sicherheitsschwelle senken, wenn in bestehenden Modellen gefährliche Fähigkeiten entdeckt werden.

Der Vorschlag dürfte auf politische Schwierigkeiten stoßen. “Ich denke, dass diese Empfehlung von der US-Regierung extrem unwahrscheinlich übernommen wird”, sagt Greg Allen, Direktor des Wadhwani Center for AI and Advanced Technologies am Center for Strategic and International Studies (CSIS), in Reaktion auf eine Zusammenfassung des Berichts, die TIME zur Verfügung stellte. Die derzeitige US-KI-Politik sehe vor, Rechenleistungsschwellen festzulegen, oberhalb derer zusätzliche Transparenzüberwachung und regulatorische Anforderungen gelten, aber nicht Grenzen, oberhalb derer Trainingsläufe illegal wären, so Allen. “Ohne einen exogenen Schock halte ich es für sehr unwahrscheinlich, dass sie diesen Ansatz ändern werden.”


Jeremie und Edouard Harris, CEO bzw. CTO von Gladstone, informieren seit 2021 die US-Regierung über KI-Risiken. Die Brüder sagten, dass Regierungsbeamte, die viele ihrer frühesten Briefings besuchten, zwar einigten, dass die Risiken von KI erheblich seien, ihnen aber gesagt wurde, dass die Verantwortung für deren Bewältigung anderen Teams oder Abteilungen obliege. Ende 2021 hätten die Harris-Brüder schließlich einen Arm der Regierung gefunden, dem die Verantwortung für die Bewältigung von KI-Risiken obliege: das Büro für Internationale Sicherheit und Nichtverbreitung des Außenministeriums. Teams in diesem Büro hätten einen zwischenbehördlichen Auftrag, Risiken durch aufkommende Technologien wie chemische und biologische Waffen sowie radiologische und nukleare Risiken anzugehen. Nach Briefings von Gladstone habe das Büro im Oktober 2022 eine Ausschreibung für einen Bericht herausgegeben, der Entscheidungen informieren sollte, ob KI auf die Liste anderer überwachter Risiken aufgenommen werden solle. (Das Außenministerium habe nicht auf eine Anfrage nach einem Kommentar zum Ergebnis dieser Entscheidung reagiert.) Das Gladstone-Team habe diesen Auftrag gewonnen, und der am Montag veröffentlichte Bericht sei das Ergebnis.

Der Bericht konzentriert sich auf zwei separate Risikokategorien. Bei der ersten Kategorie, die er als “Waffenrisiko” bezeichnet, heißt es: “Solche Systeme könnten potenziell zur Entwicklung und sogar Durchführung katastrophaler biologischer, chemischer oder Cyber-Angriffe genutzt werden oder die Möglichkeit beispielloser Waffenanwendungen in der Schwarmrobotik eröffnen.” Die zweite Kategorie sei das Risiko des “Kontrollverlusts”, also die Möglichkeit, dass fortschrittliche KI-Systeme ihren Schöpfern entgleiten könnten. Es gebe “Grund zu der Annahme, dass sie bei Entwicklung mit aktuellen Techniken nicht kontrollierbar wären und Menschen gegenüber von Natur aus feindselig handeln könnten.”

Beide Risikokategorien würden durch “Wettlauf-Dynamiken” in der KI-Branche verschärft. Die Wahrscheinlichkeit, dass das erste Unternehmen, das AGI erreicht, den Großteil der wirtschaftlichen Belohnungen erntet, veranlasse Unternehmen, Geschwindigkeit vor Sicherheit zu priorisieren, so der Bericht. “Labore an der KI-Frontlinie sehen sich einem intensiven und unmittelbaren Anreiz ausgesetzt, ihre KI-Systeme so schnell wie möglich auszuweiten”, heißt es. “Sie sehen sich nicht dem unmittelbaren Anreiz ausgesetzt, in Sicherheits- oder Sicherheitsmaßnahmen zu investieren, die keine direkten wirtschaftlichen Vorteile bringen – auch wenn einige dies aus echter Sorge tun.”

Der Gladstone-Bericht identifiziert Hardware – konkret Hochleistungs-Computerchips, die derzeit für das Training von KI-Systemen verwendet werden – als signifikante Barriere für Kapazitätserhöhungen in der KI. Die Regulierung der Verbreitung dieser Hardware könne, so das Argument, “die wichtigste Anforderung zum Schutz der langfristigen globalen Sicherheit” sein.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.