Mitarbeiter von führenden KI-Labors befürchten, dass Sicherheit im Nachhinein bedacht wird, so ein Bericht

UK Government AI Safety Summit 2023 Day Two

(SeaPRwire) –   Mitarbeiter einiger der weltweit führenden KI-Unternehmen hegen große Bedenken hinsichtlich der Sicherheit ihrer Arbeit und der Anreize ihrer Führungskräfte, heißt es in einem Bericht, der am Montag veröffentlicht wurde.

Der Bericht, der vom Außenministerium in Auftrag gegeben und von Mitarbeitern des Unternehmens Gladstone AI verfasst wurde, enthält mehrere Empfehlungen, wie die USA auf die seiner Meinung nach erheblichen Risiken der nationalen Sicherheit reagieren sollten, die durch hochentwickelte KI entstehen.

Die Autoren des Berichts sprachen für den Bericht mit mehr als 200 Experten, darunter Mitarbeitern von Open AI, Google DeepMind, Meta und Anthropic – führenden KI-Laboren, die alle auf „allgemeine künstliche Intelligenz“ hinarbeiten, eine hypothetische Technologie, die die meisten Aufgaben auf oder über dem Niveau eines Menschen ausführen könnte. Die Autoren teilten Auszüge der Bedenken, die Mitarbeiter einiger dieser Labore ihnen privat mitgeteilt hatten, ohne die Personen oder das spezielle Unternehmen, für das sie arbeiten, zu benennen. Open AI, Google, Meta und Anthropic antworteten nicht sofort auf Anfragen zur Stellungnahme.

„Wir haben in diesem Projekt de facto als Clearingstelle für die Bedenken von Grenzforschern gedient, die nicht davon überzeugt sind, dass der Standardkurs ihrer Organisationen katastrophale Ergebnisse vermeiden würde“, sagte Jeremie Harris, CEO von Gladstone und einer der Autoren des Berichts, gegenüber TIME.

Eine Person in einem nicht näher bezeichneten KI-Labor äußerte gegenüber den Autoren des Berichts die Sorge, dass das Labor einen laut Bericht „laxen Umgang mit Sicherheit“ habe, der auf dem Wunsch beruhe, die Arbeit des Labors zum Aufbau leistungsfähigerer Systeme nicht zu verlangsamen. Eine andere Person äußerte die Sorge, dass ihr Labor nicht genügend Eindämmungsmaßnahmen getroffen habe, um ein Entkommen einer AGI aus der Kontrolle zu verhindern, obwohl das Labor glaubt, dass AGI bald möglich ist.

Wieder andere äußerten sich besorgt über die Cybersicherheit. „Nach dem privaten Urteil vieler ihrer eigenen technischen Mitarbeiter sind die Sicherheitsmaßnahmen in vielen Grenz-KI-Laboren unzureichend, um einer anhaltenden IP-Exfiltrationskampagne durch einen ausgeklügelten Angreifer standzuhalten“, heißt es in dem Bericht. „Angesichts des aktuellen Standes der Grenzlabsicherheit erscheint es wahrscheinlich, dass solche Modell-Exfiltrationsversuche wahrscheinlich erfolgreich sein werden, falls sie nicht bereits stattfinden, ohne direkte Unterstützung der US-Regierung.“

Viele der Menschen, die diese Bedenken teilten, taten dies, während sie sich mit der Berechnung auseinandersetzten, dass eine öffentliche Meldung dazu führen würde, dass sie in Zukunft ihre Fähigkeit verlieren würden, wichtige Entscheidungen zu beeinflussen, sagt Harris. „Das Maß an Besorgnis einiger Leute in diesen Laboren über den Entscheidungsprozess und wie sich die Anreize für das Management auf wichtige Entscheidungen auswirken, ist kaum zu überschätzen“, sagt er gegenüber TIME. „Die Leute, die die Risikoseite der Gleichung am genauesten verfolgen und in vielen Fällen am besten Bescheid wissen, sind oft diejenigen mit der größten Besorgnis.“

Sind Sie Mitarbeiter in einem KI-Labor und haben Bedenken, die Sie möglicherweise einem Journalisten mitteilen würden? Sie können den Autor dieses Artikels über Signal unter billyperrigo.01 kontaktieren.

Die Tatsache, dass die heutigen KI-Systeme noch keine katastrophalen Folgen für die Menschheit gehabt haben, ist nach Ansicht der Autoren kein Beweis dafür, dass größere Systeme in Zukunft sicher sein werden. Von den Leuten direkt an der Front, die sich derzeit mit den Dingen beschäftigen, die gerade im Verborgenen entwickelt werden, haben wir eines der großen Themen gehört, dass es in gewisser Weise ein bisschen wie ein russisches Roulettespiel ist“, sagt Edouard Harris, Gladstones Chief Technology Officer, der auch Mitautor des Berichts ist. „Schauen Sie, wir haben abgedrückt, und hey, es geht uns gut, also lasst uns noch einmal abdrücken.“

Viele Regierungen der Welt sind sich der Risiken bewusst, die von fortschrittlichen KI-Systemen ausgehen, in den letzten 12 Monaten. Im November veranstaltete das Vereinigte Königreich einen AI Safety Summit, bei dem sich die Staats- und Regierungschefs der Welt dazu verpflichteten, gemeinsam daran zu arbeiten, internationale Normen für die Technologie zu setzen. Im Oktober erließ Präsident Biden eine Durchführungsverordnung, in der Sicherheitsstandards für in den USA ansässige KI-Labore festgelegt wurden. Der Kongress hat jedoch noch kein KI-Gesetz verabschiedet, was bedeutet, dass es nur wenige gesetzliche Beschränkungen dafür gibt, was KI-Labore tun können und was nicht, wenn es um die Ausbildung fortgeschrittener Modelle geht.

Bidens Durchführungsverordnung fordert das Nationale Institut für Standards und Technologie auf, „strenge Standards“ für Tests festzulegen, die KI-Systeme bestehen müssen, bevor sie öffentlich veröffentlicht werden. Der Gladstone-Bericht empfiehlt jedoch, dass sich staatliche Regulierungsbehörden nicht stark auf diese Art von KI-Bewertungen verlassen sollten, die heute eine gängige Praxis sind, um zu testen, ob ein KI-System gefährliche Fähigkeiten oder Verhaltensweisen aufweist. Bewertungen, so der Bericht, „können leicht untergraben und manipuliert werden“, da KI-Modelle von ihren Erstellern oberflächlich optimiert oder „fein abgestimmt“ werden können, um Bewertungen zu bestehen, wenn die Fragen im Voraus bekannt sind. Entscheidend ist, dass es für diese Optimierungen einfacher ist, einem Modell einfach beizubringen, gefährliche Verhaltensweisen besser zu verbergen, als diese Verhaltensweisen vollständig zu beseitigen.

Der Bericht zitiert eine Person, die als Experte mit „direkter Kenntnis“ der Praktiken eines KI-Labors beschrieben wird, der beurteilte, dass das nicht genannte Labor Bewertungen auf diese Weise manipuliert. „KI-Bewertungen können nur das Vorhandensein gefährlicher Fähigkeiten aufzeigen, aber nicht deren Fehlen bestätigen“, argumentiert der Bericht. „Eine übermäßige Abhängigkeit von KI-Bewertungen könnte ein falsches Sicherheitsgefühl unter KI-Entwicklern [und] Regulierungsbehörden verbreiten.“

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.