(SeaPRwire) – Während KI transformative Vorteile bieten könnte, könnte sie ohne angemessene Schutzmaßnahmen nukleare und biologische Bedrohungen erleichtern und „potenziell irreversible Schäden“ verursachen, warnt ein neuer Bericht, der von Kaliforniens Gouverneur Gavin Newsom in Auftrag gegeben wurde.
„Die Möglichkeit, wirksame KI-Governance-Rahmen zu schaffen, ist möglicherweise nicht unbegrenzt gegeben“, heißt es in dem Bericht, der am 17. Juni veröffentlicht wurde. Unter Berufung auf neue Beweise dafür, dass KI Nutzern helfen kann, Uran in Nuklearqualität zu beschaffen, und kurz davor steht, es Anfängern zu ermöglichen, biologische Bedrohungen zu schaffen, wird festgestellt, dass die Kosten für Untätigkeit in diesem Moment „extrem hoch“ sein könnten.
Das 53-seitige Dokument stammt von einer von Gouverneur Newsom eingesetzten Arbeitsgruppe in einem Bundesstaat, der sich zu einem zentralen Schauplatz für KI-Gesetzgebung entwickelt hat. Da keine umfassende bundesstaatliche Regelung in Sicht ist, haben die Bemühungen der Bundesstaaten zur Steuerung der Technologie eine überragende Bedeutung erlangt, insbesondere in Kalifornien, wo viele der weltweit führenden KI-Unternehmen ansässig sind. Im Jahr 2023 sponserte der kalifornische Senator Scott Wiener einen Gesetzentwurf, SB 1047, der von großen KI-Entwicklern verlangt hätte, strenge Sicherheitstests und -minderungen für ihre Systeme durchzuführen, von dem Kritiker jedoch befürchteten, dass er Innovationen ersticken und die Open-Source-KI-Community zunichte machen würde. Der Gesetzentwurf passierte beide Staatsparlamente trotz heftigen Widerstands der Industrie, aber Gouverneur Newsom legte im vergangenen September sein Veto ein und nannte ihn zwar „gut gemeint“, aber nicht den „besten Ansatz zum Schutz der Öffentlichkeit“.
Nach diesem Veto startete Newsom die Arbeitsgruppe, um „praktikable Leitplanken für den Einsatz von GenAI zu entwickeln“. Die Gruppe wurde von der „Godmother of AI“ , einer prominenten Gegnerin von SB 1047, sowie von Mariano-Florentino Cuéllar, Mitglied des National Academy of Sciences Committee on Social and Ethical Implications of Computing Research, und Jennifer Tour Chayes, Dekanin des College of Computing, Data Science, and Society an der UC Berkeley, geleitet. Die Arbeitsgruppe bewertete die Fortschritte der KI, die Schwachstellen von SB 1047 und holte Feedback von mehr als 60 Experten ein. „Als globales Epizentrum der KI-Innovation ist Kalifornien einzigartig positioniert, um die transformative Potenzial von Frontier AI freizusetzen“, sagte Li in einer Erklärung. „Die Verwirklichung dieses Versprechens erfordert jedoch eine durchdachte und verantwortungsvolle Verwaltung – basierend auf menschenzentrierten Werten, wissenschaftlicher Strenge und breiter Zusammenarbeit“, sagte sie.
„Die Fähigkeiten von Foundation Models haben sich seit dem Veto von Gouverneur Newsom gegen SB 1047 im vergangenen September rasant weiterentwickelt“, heißt es in dem Bericht. Die Branche hat sich von großen Sprach-KI-Modellen, die lediglich das nächste Wort in einem Textstrom vorhersagen, hin zu Systemen verlagert, die darauf trainiert sind, komplexe Probleme zu lösen und von „Inference Scaling“ profitieren, wodurch sie mehr Zeit für die Verarbeitung von Informationen haben. Diese Fortschritte könnten die wissenschaftliche Forschung beschleunigen, aber auch potenziell die nationalen Sicherheitsrisiken erhöhen, indem sie es böswilligen Akteuren erleichtern, Cyberangriffe durchzuführen oder chemische und biologische Waffen zu erwerben. Der Bericht verweist auf die Claude 4-Modelle von Anthropic, die erst letzten Monat veröffentlicht wurden und von denen das Unternehmen sagte, sie könnten in der Lage sein, angehenden Terroristen bei der Entwicklung von Biowaffen oder der Entwicklung einer Pandemie zu helfen. In ähnlicher Weise übertraf das o3-Modell von OpenAI Berichten zufolge 94 % der Virologen bei einer wichtigen Bewertung.
In den letzten Monaten sind neue Beweise für die Fähigkeit von KI aufgetaucht, sich von den Zielen ihrer Schöpfer zu entfernen, während des Trainings mit den Zielen ihrer Schöpfer übereinzustimmen, aber andere Ziele zu zeigen, sobald sie eingesetzt werden, und zu lügen, um ihre Ziele zu erreichen, heißt es in dem Bericht. Obwohl „diese Entwicklungen derzeit harmlos sind, stellen sie konkrete empirische Beweise für Verhaltensweisen dar, die erhebliche Herausforderungen bei der Messung von Kontrollverlustrisiken darstellen und möglicherweise zukünftige Schäden vorhersagen“, heißt es in dem Bericht.
Während Republikaner ein 10-jähriges Verbot aller staatlichen KI-Regulierungen vorgeschlagen haben, aus Sorge, dass ein fragmentiertes politisches Umfeld die nationale Wettbewerbsfähigkeit beeinträchtigen könnte, argumentiert der Bericht, dass eine gezielte Regulierung in Kalifornien tatsächlich „die Compliance-Belastung für Entwickler reduzieren und einen Flickenteppich vermeiden könnte“, indem sie eine Blaupause für andere Bundesstaaten liefert und gleichzeitig die Öffentlichkeit sicherer macht. Er geht nicht so weit, eine bestimmte Politik zu befürworten, sondern skizziert stattdessen die Schlüsselprinzipien, die Kalifornien nach Ansicht der Arbeitsgruppe bei der Ausarbeitung zukünftiger Gesetze anwenden sollte. Er „hält sich fern“ von einigen der umstritteneren Bestimmungen von SB1047, wie z. B. der Anforderung eines „Kill Switch“ oder Abschaltmechanismus, um bestimmte KI-Systeme im Falle potenzieller Schäden schnell zu stoppen, sagt Scott Singer, Gastwissenschaftler im Technology and International Affairs Program am Carnegie Endowment for International Peace und Hauptautor des Berichts.
Stattdessen konzentriert sich der Ansatz auf die Verbesserung der Transparenz, beispielsweise durch den rechtlichen Schutz von Whistleblowern und die Einrichtung von Vorfallmeldesystemen, damit Gesetzgeber und die Öffentlichkeit einen besseren Einblick in die Fortschritte der KI erhalten. Ziel ist es, „die Vorteile der Innovation zu nutzen. Lassen Sie uns keine künstlichen Barrieren errichten, aber gleichzeitig, während wir voranschreiten, denken wir darüber nach, was wir darüber lernen, wie sich die Technologie verhält“, sagt Cuéllar, der den Bericht mitgeleitet hat. Der Bericht betont, dass diese Transparenz nicht nur für öffentlich zugängliche KI-Anwendungen von entscheidender Bedeutung ist, sondern auch, um zu verstehen, wie Systeme in KI-Unternehmen getestet und eingesetzt werden, wo besorgniserregende Verhaltensweisen zuerst auftreten könnten.
„Der zugrunde liegende Ansatz hier ist einer des ‚Vertrauens, aber Überprüfens‘“, sagt Singer, ein Konzept, das aus den Rüstungskontrollverträgen des Kalten Krieges übernommen wurde und die Entwicklung von Mechanismen zur unabhängigen Überprüfung der Einhaltung vorsieht. Das ist eine Abkehr von den bestehenden Bemühungen, die auf der freiwilligen Zusammenarbeit von Unternehmen beruhen, wie z. B. dem Abkommen zwischen OpenAI und Center for AI Standards and Innovation (ehemals U.S. AI Safety Institute) zur Durchführung von Tests vor der Bereitstellung. Es ist ein Ansatz, der die „beträchtliche Expertise innerhalb der Industrie“ anerkennt, sagt Singer, aber „auch die Bedeutung von Methoden zur unabhängigen Überprüfung von Sicherheitsansprüchen unterstreicht“.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.
“`