(SeaPRwire) – Anthropic CEO Dario Amodei glaubt nicht, dass er derjenige sein sollte, der über die Sicherheitsvorkehrungen rund um KI entscheidet.
In einem Interview mit Anderson Cooper in der CBS News-Sendung 60 Minutes, das im November 2025 ausgestrahlt wurde, sagte der CEO, dass die KI stärker reguliert werden sollte und dass weniger Entscheidungen über die Zukunft der Technologie nur in den Händen der Chefs von Big Tech-Konzernen liegen sollten.
„Ich bin mit diesen Entscheidungen, die von wenigen Unternehmen, von wenigen Personen getroffen werden, sehr unwohl“, sagte Amodei. „Und das ist einer der Gründe, warum ich immer für eine verantwortungsvolle und nachdenkliche Regulierung der Technologie plädiert habe.“
„Wer hat Sie und Sam Altman gewählt?“, fragte Cooper.
„Niemand. Ehrlich gesagt niemand“, antwortete Amodei.
Anthropic hat die Philosophie verfolgt, bei der Weiterentwicklung der KI transparent über deren Grenzen und Gefahren zu sein, fügte er hinzu. Vor der Veröffentlichung des Interviews meldete das Unternehmen „den ersten dokumentierten Fall eines groß angelegten KI-Cyberangriffs, der ohne nennenswerte menschliche Intervention durchgeführt wurde“.
Anthropic sagte letzte Woche, dass es sich Public First Action angeschlossen hat, einem Super-PAC, das sich auf KI-Sicherheit und -Regulierung konzentriert und das Super-PACs direkt widerspricht, die von den Investoren des Rivalen OpenAI unterstützt werden.
„Die Sicherheit der KI bleibt weiterhin das oberste Ziel“, sagte Amodei in einem Januar Coverstory. „Unternehmen schätzen Vertrauen und Zuverlässigkeit“, sagt er.
Es gibt keine Vorschriften, die Verbote in Bezug auf KI oder die Sicherheit der Technologie festlegen. Während einige Staaten dieses Jahr KI-relevante Gesetze eingebracht haben und 38 Transparenz- und Sicherheitsmaßnahmen verabschiedet oder erlassen haben, haben Technologieexperten KI-Unternehmen aufgefordert, Cybersicherheit mit Eile anzugehen.
Früher im vergangenen Jahr warnte Cybersicherheitsexperte und Mandiant-CEO Kevin Mandia vor dem ersten KI-Agenten-Cyberangriff in den nächsten 12 bis 18 Monaten – was bedeutet, dass Anthropics Offenlegung über den vereitelten Angriff Monate vor Mandias vorhergesagtem Zeitplan erfolgte.
Amodei hat die Risiken aufgezeigt, die mit unbeschränkter KI verbunden sind: Die Technologie wird zunächst, wie jetzt schon, Vorurteile und Fehlinformationen aufzeigen. Dann wird sie mithilfe verbesserter wissenschaftlicher und technischer Kenntnisse schädliche Informationen generieren, bevor sie schließlich eine existenzielle Bedrohung darstellt, indem sie die menschliche Entscheidungsgewalt entfernt, möglicherweise zu autonom wird und Menschen von Systemen ausschließt.
Die Bedenken spiegeln die des „Gottesvaters der KI“, Geoffrey Hinton, wider, der befürchtet, dass die KI in vielleicht zehn Jahren in der Lage sein wird, Menschen zu überlisten und zu kontrollieren.
Stärkere Prüfung und Sicherheitsvorkehrungen für KI lagen der Gründung von Anthropic im Jahr 2021 zugrunde. Amodei war zuvor Vizepräsident für Forschung bei Sam Altmans OpenAI. Er verließ das Unternehmen aufgrund unterschiedlicher Meinungen zu KI-Sicherheitsbedenken. (Bisher scheinen Amodeis Bemühungen, mit Altman zu konkurrieren, erfolgreich zu sein: Anthropic sagte diesen Monat, dass es … OpenAI wird auf geschätzte 500 Milliarden Dollar bewertet.)
„Es gab eine Gruppe von uns innerhalb von OpenAI, die nach der Entwicklung von GPT-2 und GPT-3 eine sehr starke Überzeugung in zwei Dingen hatte“, sagte Amodei im Jahr 2023. „Eine war die Idee, dass wenn man mehr Rechenleistung in diese Modelle steckt, sie immer besser werden und dass es fast kein Ende dazu gibt … Und die zweite war die Idee, dass man zusätzlich zur Skalierung der Modelle etwas braucht, nämlich Ausrichtung oder Sicherheit.“
Anthropics Transparenzbemühungen
Während Anthropic seine Investitionen in Rechenzentren ausbaut, hat es einige seiner Bemühungen zur Bewältigung der Mängel und Gefahren der KI veröffentlicht. In einem Bericht vom Mai 2025 berichtete Anthropic, dass einige Versionen seines Opus-Modells Erpressung androhten, wie etwa die Enthüllung einer Affäre eines Ingenieurs, um ein Herunterfahren zu vermeiden. Das Unternehmen sagte auch, dass das KI-Modell gefährlichen Anfragen nachkam, wenn es mit schädlichen Anweisungen wie der Planung eines Terroranschlags konfrontiert wurde, was es inzwischen behoben habe.
Im vergangenen November sagte das Unternehmen in einem Blogbeitrag, dass sein Chatbot Claude … und in Bezug auf Neutralität mit den Konkurrenten mithielt oder sie übertraf.
Zusätzlich zu Anthropics eigenen Forschungsbemühungen zur Bekämpfung der Korruption der Technologie hat Amodei eine stärkere gesetzgeberische Aktivität zur Bewältigung der Risiken der KI gefordert. In einem Interview im Juni 2025 kritisierte er die Entscheidung des Senats, einen Bestimmungsabschnitt in das Politikgesetz von Präsident Donald Trump aufzunehmen, der den Staaten eine zehnjährige Moratorium für die Regulierung von KI auferlegen würde.
„Die KI entwickelt sich zu rasant“, sagte Amodei. „Ich glaube, dass diese Systeme die Welt innerhalb von zwei Jahren grundlegend verändern könnten; in zehn Jahren ist alles möglich.“
Kritik an Anthropic
Anthropics Praxis, seine eigenen Fehlleistungen aufzuzeigen und Maßnahmen zu deren Behebung zu ergreifen, hat Kritik auf sich gezogen. Als Anthropic vor dem KI-gestützten Cybersicherheitsangriff alarmierte, sagte Metas Chef-KI-Wissenschaftler Yann LeCun, die Warnung sei ein Mittel, um Gesetzgeber dazu zu bringen, die Nutzung von Open-Source-Modellen einzuschränken.
„Sie werden von Leuten manipuliert, die die Regulierung in ihre Hände bekommen wollen“, sagte LeCun in einem Interview als Reaktion auf einen Post von Connecticut-Senator Chris Murphy, in dem er seine Sorge über den Angriff äußerte. „Sie erschrecken alle mit zweifelhaften Studien, damit Open-Source-Modelle aus der Existenz reguliert werden.“
Andere haben gesagt, dass Anthropics Strategie eine Art „Sicherheitstheater“ ist, das zwar zu einer guten Markenpräsenz führt, aber keine Versprechen auf die tatsächliche Umsetzung von Sicherheitsvorkehrungen für die Technologie macht.
Selbst einige Mitarbeiter von Anthropic scheinen Zweifel an der Fähigkeit eines Technologieunternehmens, sich selbst zu regulieren, zu haben. Anfang der vergangenen Woche kündigte Anthropic KI-Sicherheitsforscher Mrinank Sharma aus dem Unternehmen, indem er sagte: „Die Welt ist in Gefahr.“
„Während meiner Zeit hier habe ich immer wieder gesehen, wie schwierig es ist, wirklich von unseren Werten leiten zu lassen“, schrieb Sharma in seinem Kündigungsschreiben. „Ich habe dies an mir selbst, in der Organisation gesehen, wo wir ständig unter Druck stehen, das Wichtigste beiseite zu legen, und auch in der breiteren Gesellschaft.“
Anthropic hat auf Anfrage um Kommentar nicht sofort geantwortet.
Amodei leugnete bei Cooper, dass Anthropic an „Sicherheitstheater“ beteilige, gab aber in einer Episode der … letzte Woche zu, dass das Unternehmen manchmal …
„Wir sind unter einem unglaublichen kommerziellen Druck und machen es uns selbst noch schwieriger, weil wir all diese Sicherheitsmaßnahmen ergreifen, die ich denke, wir mehr tun als andere Unternehmen“, sagte er.
Eine Version dieser Geschichte wurde am 17. November 2025 auf … veröffentlicht.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.
Mehr zur KI-Regulierung:
- Anthropic CEO Dario Amodeis … über die Frage, wie die KI die Menschheit „auf die Probe stellen wird“, ist ein Muss-Lesen – vor allem wegen seiner Lösungsvorschläge, weniger wegen seiner Warnungen
- Amerikas KI-Regulierungsgeflecht zermalmte Start-ups und …
- Die KI könnte bis 2027 … sein, wenn sie unkontrolliert bleibt, warnt ein ehemaliger … Ethiker.