Exklusiv: 60 britische Abgeordnete beschuldigen Google des Bruchs der KI-Sicherheitszusage

US-INTERNET-SOFTWARE-COMPUTERS-AI-GOOGLE

(SeaPRwire) –   Eine parteiübergreifende Gruppe von 60 britischen Parlamentariern hat Google DeepMind vorgeworfen, gegen internationale Zusagen zur sicheren Entwicklung künstlicher Intelligenz verstoßen zu haben, dies wurde TIME exklusiv vor der Veröffentlichung mitgeteilt. Das Schreiben, das am 29. August von der Aktivistengruppe PauseAI U.K. veröffentlicht wurde, besagt, dass Googles Veröffentlichung von Gemini 2.5 Pro im März ohne begleitende Details zu Sicherheitstests „einen gefährlichen Präzedenzfall schafft“. Das Schreiben, dessen Unterzeichner unter anderem die Digitalrechtsaktivistin Baroness Beeban Kidron und der frühere Verteidigungsminister Des Browne sind, fordert Google auf, seine Verpflichtung klarzustellen.

Seit Jahren haben Experten für KI, darunter der CEO von Google DeepMind, davor gewarnt, dass KI katastrophale Risiken für die öffentliche Sicherheit und – zum Beispiel durch die Unterstützung potenzieller Bio-Terroristen bei der Entwicklung eines neuen Krankheitserregers oder von Hackern bei einem Angriff auf kritische Infrastrukturen – darstellen könnte. Um diese Risiken zu steuern, unterzeichneten Google, OpenAI und andere auf einem internationalen KI-Gipfel, der im Februar 2024 von der britischen und südkoreanischen Regierung gemeinsam ausgerichtet wurde, die Frontier AI Safety Commitments. Die Unterzeichner verpflichteten sich, Systemfähigkeiten und Risikobewertungen „öffentlich zu berichten“ und zu erklären, ob und wie externe Akteure, wie z.B. Regierungsbehörden, an den Tests beteiligt waren. Ohne verbindliche Vorschriften waren die Öffentlichkeit und die Gesetzgeber weitgehend auf Informationen aus freiwilligen Zusagen angewiesen, um die aufkommenden Risiken der KI zu verstehen.

Doch als Google am 25. März Gemini 2.5 Pro veröffentlichte – das nach eigenen Angaben konkurrierende KI-Systeme in Branchenbenchmarks um „bedeutende Margen“ übertraf – versäumte es das Unternehmen, detaillierte Informationen zu Sicherheitstests für über einen Monat zu veröffentlichen. Das Schreiben besagt, dass dies nicht nur ein „Versagen, seinen internationalen Sicherheitsverpflichtungen nachzukommen“, widerspiegelt, sondern auch die fragilen Normen zur Förderung einer sichereren KI-Entwicklung bedroht. „Wenn führende Unternehmen wie Google diese Verpflichtungen als optional betrachten, riskieren wir einen gefährlichen Wettlauf um den Einsatz immer leistungsfähigerer KI ohne angemessene Sicherheitsvorkehrungen“, schrieb Browne in einer dem Schreiben beigefügten Erklärung.

„Wir erfüllen unsere öffentlichen Verpflichtungen, einschließlich der Seoul Frontier AI Safety Commitments“, sagte ein Google DeepMind Sprecher gegenüber TIME in einer per E-Mail versandten Erklärung. „Im Rahmen unseres Entwicklungsprozesses unterlaufen unsere Modelle rigorosen Sicherheitsprüfungen, auch durch das UK AISI und andere Drittanbieter – und Gemini 2.5 ist da keine Ausnahme.“

Der offene Brief fordert Google auf, einen spezifischen Zeitplan festzulegen, wann Sicherheitsbewertungsberichte für zukünftige Veröffentlichungen geteilt werden. Google veröffentlichte die Gemini 2.5 Pro Modellkarte – ein Dokument, in dem es normalerweise Informationen zu Sicherheitstests teilt – erst 22 Tage nach der Veröffentlichung des Modells. Das achtseitige Dokument enthielt jedoch nur einen kurzen Abschnitt zu Sicherheitstests. Erst am 28. April – über einen Monat nachdem das Modell öffentlich zugänglich gemacht wurde – wurde die Modellkarte mit einem 17-seitigen Dokument aktualisiert, das Details zu spezifischen Bewertungen enthielt und zu dem Schluss kam, dass Gemini 2.5 Pro „signifikante“, wenn auch noch nicht gefährliche Verbesserungen in Bereichen wie Hacking zeigte. Das Update erwähnte auch die Verwendung von „externen Drittanbietern“, gab aber nicht an, welche oder ob das U.K. AI Security Institute darunter war – was das Schreiben ebenfalls als Verstoß gegen Googles Zusage anführt.

Nachdem Google zuvor eine Anfrage nach einem Kommentar, ob es Gemini 2.5 Pro Regierungen für Sicherheitstests zur Verfügung gestellt hatte, unbeantwortet ließ, teilte ein Google DeepMind Sprecher TIME mit, dass das Unternehmen Gemini 2.5 Pro dem U.K. AI Security Institute sowie einer „diversen Gruppe externer Experten“, darunter Apollo Research, Dreadnode und Vaultis, zur Verfügung gestellt habe. Google gibt jedoch an, das Modell dem U.K. AI Security Institute erst nach der Veröffentlichung von Gemini 2.5 Pro am 25. März zur Verfügung gestellt zu haben.

Am 3. April, kurz nach der Veröffentlichung von Gemini 2.5 Pro, erklärte Googles Senior Director und Head of Product für Gemini, Tulsee Doshi, gegenüber TechCrunch, der Grund für das Fehlen eines Sicherheitsberichts sei, dass es sich um eine „experimentelle“ Veröffentlichung handele, und fügte hinzu, dass bereits Sicherheitstests durchgeführt worden seien. Sie sagte, das Ziel dieser experimentellen Rollouts sei es, das Modell in begrenztem Umfang zu veröffentlichen, Benutzerfeedback zu sammeln und es vor dem Produktionsstart zu verbessern, zu welchem Zeitpunkt das Unternehmen eine Modellkarte mit Details zu den bereits durchgeführten Sicherheitstests veröffentlichen würde. Doch Tage zuvor hatte Google das Modell allen seinen Millionen kostenlosen Benutzern zur Verfügung gestellt und in einem Post auf X erklärt: „Wir wollen unser intelligentestes Modell so schnell wie möglich in die Hände weiterer Menschen bringen.“

Der offene Brief besagt, dass „die Kennzeichnung eines öffentlich zugänglichen Modells als ‚experimentell‘ Google nicht von seinen Sicherheitsverpflichtungen entbindet“, und fordert Google zusätzlich auf, eine vernünftigere Definition von Bereitstellung festzulegen. „Unternehmen haben eine große öffentliche Verantwortung, neue Technologien zu testen und die Öffentlichkeit nicht in Experimente einzubeziehen“, sagt der Bischof von Oxford, Steven Croft, der das Schreiben unterzeichnete. „Stellen Sie sich vor, ein Autohersteller bringt ein Fahrzeug heraus und sagt: ‚Wir wollen, dass die Öffentlichkeit experimentiert und Feedback gibt, wenn sie einen Unfall haben oder Fußgänger anfahren und wenn die Bremsen nicht funktionieren‘“, fügt er hinzu.

Croft hinterfragt die Einschränkungen bei der Bereitstellung von Sicherheitsberichten zum Zeitpunkt der Veröffentlichung und reduziert das Problem auf eine Frage der Prioritäten: „Wie viel von [Googles] riesigen Investitionen in KI wird in die öffentliche Sicherheit und Beruhigung gelenkt und wie viel in riesige Rechenleistung?“

Sicherlich ist Google nicht der einzige Industriegigant, der anscheinend Sicherheitsverpflichtungen missachtet. Elon Musks xAI muss noch einen Sicherheitsbericht für Grok 4, ein im Juli veröffentlichtes KI-Modell, veröffentlichen. Im Gegensatz zu GPT-5 und anderen jüngsten Veröffentlichungen fehlte bei OpenAIs Veröffentlichung seines Deep Research Tools im Februar ein gleichzeitiger Sicherheitsbericht. Das Unternehmen gibt an, „rigorose Sicherheitstests“ durchgeführt zu haben, veröffentlichte den Bericht jedoch erst 22 Tage später.

Joseph Miller, Direktor von PauseAI U.K., sagt, die Organisation sei besorgt über andere Fälle offensichtlicher Verstöße, und der Fokus auf Google sei auf dessen Nähe zurückzuführen. DeepMind, das KI-Labor, das Google 2014 erwarb, hat seinen Hauptsitz weiterhin in London. U.K.s heutiger Minister für Wissenschaft, Innovation und Technologie, Michelle Donelan, sagte im Wahlkampf 2024, sie würde führende KI-Unternehmen „unter Druck setzen“, Sicherheitstests zu teilen, aber im Februar wurde berichtet, dass die Pläne des U.K. zur Regulierung von KI verzögert wurden, da man sich besser an den „Hands-off“-Ansatz der Trump-Regierung anpassen wollte. Miller sagt, es sei an der Zeit, Unternehmenszusagen durch „echte Regulierung“ zu ersetzen und fügt hinzu, dass „freiwillige Verpflichtungen einfach nicht funktionieren.“

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.