(SeaPRwire) – Das KI-Unternehmen Anthropic erklärte, es könne das „beste und endgültige“ Angebot des Pentagon nicht akzeptieren, um die Regelungen zu lösen, die das Unternehmen für die Nutzung seiner KI-Modelle durch das US-Militär festgelegt hat. Mit nur noch wenigen Stunden bis zur Frist am Freitag, die Forderungen des Pentagon zu erfüllen oder Maßnahmen zu erleiden, die Anthropic davon ausschließen könnten, mit jedem Unternehmen zu handeln, das auch mit dem US-Militär Geschäfte macht, wurde der Streit zunehmend unschön.
Pentagon-Beamte haben den Charakter von Anthropic-CEO Dario Amodei öffentlich in Frage gestellt. Gleichzeitig haben Mitarbeiter konkurrierender KI-Labore offene Briefe unterzeichnet, die die Position von Anthropic unterstützen. OpenAI-CEO Sam Altman teilte seinen Mitarbeitern in einem Memo am Donnerstag laut Axios mit, dass OpenAI die gleichen Einschränkungenungen für autonome Waffen und Massenüberwachung verlangen wird, die Anthropic hat, während es verhandelt, die Nutzung von ChatGPT—der derzeit dem Militär für nicht sensible Anwendungsfälle zur Verfügung steht—auf mehr klassifizierte Bereiche auszudehnen.
Der Streit zwischen Anthropic und dem Pentagon droht nun, sich zu einer branchenweiten Rebellion unter Techniker:innen in KI-Unternehmen zu entwickeln, die sich auf die Nutzung der von ihnen entwickelten KI-Systeme durch das Militär bezieht. Am Donnerstag schickten mehr als 100 Mitarbeiter von Google Jeff Dean, dem Chefwissenschaftler des Unternehmens, einen Brief, in dem sie ebenfalls ähnliche Grenzen für die Nutzung von Google’s Gemini KI-Modellen durch das US-Militär forderten, laut .
Am Donnerstag veröffentlichte Amodei eine Erklärung, in der er darlegt, warum das Unternehmen der Meinung ist, dass es Einschränkungen für die Nutzung seiner KI-Technologie für autonome Waffen und Massenüberwachung geben sollte. Dies sind die beiden Bereiche, in denen Anthropic die Nutzung seiner Modelle durch das Militär derzeit einschränkt—sowohl in seinen Vertragsbedingungen als auch durch Sicherheitsmaßnahmen, die es direkt in seine Claude-Modelle integriert hat. Das Pentagon möchte diese Einschränkungen entfernen und dass Anthropic zustimmt, dass das US-Militär seine Modelle „für jeden rechtmäßigen Zweck“ nutzen kann.
Frontier-KI-Systeme sind „nicht zuverlässig genug, um vollständig autonome Waffen zu steuern“, und ohne angemessene Aufsicht „können sie nicht darauf vertraut werden, das kritische Urteilsvermögen auszuüben, das unsere hoch ausgebildeten, professionellen Truppen jeden Tag zeigen“, schrieb Amodei in seiner Erklärung. Bezüglich Überwachung argumentierte er, dass leistungsstarke KI jetzt einzeln harmlose öffentliche Daten—wie Standortaufzeichnungen, Browserverlauf und soziale Beziehungen—zu einem umfassenden Porträt des Lebens jedes US-Bürgers in großem Maßstab zusammenfügen kann.
Emil Michael, der US-Unterstaatssekretär für Krieg, nannte Amodei als Antwort „einen Lügner“ mit einem „Gott-Komplex“ und beschuldigte den CEO in Posts auf einer sozialen Medienplattform, „das US-Militär persönlich kontrollieren zu wollen“. In einem separaten Post charakterisierte Michael auch die Claude Constitution von Anthropic—ein internes Dokument, das die Werte und Prinzipien beschreibt, die das Unternehmen in seine KI einbaut—als einen unternehmerischen Plan, „den Amerikanern ihre unternehmerischen Gesetze aufzuzwingen“.
Das Pentagon hat Anthropic verlangt, die Vertragseinschränkungen, die es ablehnt, bis 17:01 Uhr am Freitag zu entfernen, oder mit der Kündigung seines 200-Millionen-Dollar-Vertrags mit dem US-Militär zu rechnen, oder—in einem extremeren Schritt—als „Versorgungskettenrisiko“ eingestuft zu werden, was jedes Unternehmen, das mit dem Militär Geschäfte macht, effektiv davon ausschließen würde, Anthropic’s Technologie zu nutzen.
Dieser Schritt ist normalerweise für Unternehmen ausländischer Gegner reserviert, wie z. B. Chinas [fehlender Name] oder das russische Cybersicherheitsunternehmen Kaspersky.
„Die Anwendung davon gegen ein inländisches Unternehmen, weil es nicht bereit ist, bei solchen Prinzipien nachzugeben, ist wirklich sehr eskalierend und ohne Präzedenzfall“, sagte Seán Ó hÉigeartaigh, Geschäftsführer des Cambridge Center for the Study of Existential Risk, dem .
Das Department of War hat auch gedroht, das Verteidigungs-produktionsgesetz aus der Kalten-Kriegs-Ära anzuwenden, um mit diesem Gesetz Anthropic zu zwingen, eine uneingeschränkte Version von Claude herauszugeben—unter dem Vorwand, dass die Regierung es als essenziell für die nationale Sicherheit erachtet. Wenn das Pentagon diesen Weg geht, wird es Befugnisse nutzen, die eigentlich nur für Notfälle gedacht sind, um einen Vertragsstreit in Friedenszeiten zu lösen. Es gibt einige Präzedenzfälle dafür: Die Biden-Regierung hat das DPA auch im Jahr 2023 angewendet, um Frontier-KI-Labore zu zwingen, Informationen über die Sicherheit ihrer KI-Modelle herauszugeben. Aber das Zwingen eines Unternehmens, ein Produkt herzustellen, im Gegensatz zu einfach Informationen bereitzustellen, kommt der Nationalisierung eines führenden Technologieunternehmens näher.
„Wenn sie effektiv gezwungen werden, ihre Technologie auf Weise zu nutzen, die selbst sie als nicht zuverlässig in hochriskanten Leben-und-Tod-Situationen wie auf dem Schlachtfeld bezeichnen“, sagte Ó hÉigeartaigh, „dann schafft das einen sehr gefährlichen Präzedenzfall.“
Das Department of War hat öffentlich erklärt, keine Absicht zu haben, Massenüberwachung durchzuführen oder Menschen aus Entscheidungen zur Zielerfassung von Waffen zu entfernen, aber der Streit könnte darauf beruhen, wie jede Seite „autonom“ oder „Überwachung“ in der Praxis definiert. Vertreter des Ministeriums reagierten nicht sofort auf eine Anfrage nach Kommentaren von .
Ein Sprecher von Anthropic sagte dem , dass das Unternehmen weiterhin „in gutem Glauben“ mit dem Department of War verhandelt. Der Sprecher sagte jedoch, dass die über Nacht erhaltene Vertragssprache bei den Kernfragen „praktisch keinen Fortschritt“ gemacht habe. Neue Sprache, die „als Kompromiss dargestellt“ werde, sei „mit juristischer Sprache kombiniert, die es erlaubt, diese Sicherheitsmaßnahmen nach Belieben zu ignorieren“, so der Sprecher. Amodei hat die Drohungen des Department of War als „von Natur aus widersprüchlich“ bezeichnet, da „eine uns als Sicherheitsrisiko einstuft; die andere bezeichnet Claude als essenziell für die nationale Sicherheit.“
Anthropic hat in einigen Kreisen Lob für seine Bereitschaft erhalten, festzustehen. Der Harvard-Rechtswissenschaftler Lawrence Lessig lobte die Erklärung des Unternehmens als „eine schöne Handlung von Integrität und Prinzip“ und bezeichnete sie als „unglaublich selten für unsere Zeit.“
Konurrenten OpenAI und xAI haben Pentagon�on-Verträge unterzeichnet,die die Nutzung ihrer Modelle für alle rechtmäßigen Zwecke erlauben—xAI geht dabei weiter,indem es auch auch zustimmt,seine Systeme in einigen klassifizierten Umgebungenungen einzusetzen. Aber mehr als 330 derzeitige Mitarbeiterbeiter von Konkurrenten-LLabors DeepMind und OpenAI haben auch einen offenen Brief veröffentlicht,der Anthropic unterstützt und ihre eigene Führungleitung auffordert,dem Unternehmen zu folgen.„Sie versuchen,jedes Unternehmen zu spalten,indem sie die Angst schüren,dassass das andere nachgibt“,heieß es im Briefrief.„„Diese Strategie funktioniert nur,wenn keiner von uns weiß,wo die anderen stehen.“Zu den Unterzeichnern gehörten leitende Forschungswissenschaftler sowie benannte und anonyme Forscher aus beiden Unternehmen.
Ó hÉigeartaigh sagte,dass das Ergebnis des Streits weit über Anthropic selbst hinausgehengehen könnte.„Wenn das Pentagon in diesem Streit sie siegt“ sagte er,„wird es Präzedenzfälleälle schaffenaffenaffen, die nicht gut für die Unändigkeit dieser Unternehmen oder ihre Fähigkeit sind,ethische Standards einzuhalten.“
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.