(SeaPRwire) – Während Unternehmen im Wettlauf sind, immer leistungsfähigere KI zu entwickeln, bleiben Sicherheitsmaßnahmen auf der Strecke. Ein am Mittwoch veröffentlichter Bericht untersucht genauer, wie Unternehmen wie OpenAI und Google DeepMind mit den potenziellen Gefahren ihrer Technologie umgehen. Er zeichnet ein besorgniserregendes Bild: Bei den Flaggschiffmodellen aller im Bericht genannten Entwickler wurden Schwachstellen festgestellt, und während einige Unternehmen Schritte zur Verbesserung der Sicherheit unternommen haben, hinken andere gefährlich hinterher.
Der Bericht wurde vom Future of Life Institute veröffentlicht, einer Non-Profit-Organisation, die darauf abzielt, globale katastrophale Risiken zu reduzieren. Der Aufruf der Organisation aus dem Jahr 2023 zu einer Pause beim Training großer KI-Modelle fand beispiellosen Zuspruch von 30.000 Unterzeichnern, darunter einige der prominentesten Stimmen der Technologiebranche. Für den Bericht brachte das Future of Life Institute ein Gremium von sieben unabhängigen Experten zusammen – darunter der Turing-Preisträger Yoshua Bengio und Ines von Encode Justice – die Technologieunternehmen in sechs Schlüsselbereichen bewerteten: Risikobewertung, aktuelle Schäden, Sicherheitsrahmen, existenzielle Sicherheitsstrategie, Governance & Rechenschaftspflicht sowie Transparenz & Kommunikation. Ihre Überprüfung berücksichtigte eine Reihe potenzieller Schäden, von CO2-Emissionen bis hin zum Risiko, dass ein KI-System außer Kontrolle gerät.
„Die Ergebnisse des AI Safety Index-Projekts deuten darauf hin, dass es zwar viele Aktivitäten bei KI-Unternehmen gibt, die unter der Überschrift ‚Sicherheit‘ laufen, diese aber noch nicht sehr effektiv sind“, sagte Stuart Russell, Professor für Informatik an der University of California, Berkeley und einer der Teilnehmer, in einer Erklärung.
Trotz seines „verantwortungsvollen“ Ansatzes bei der KI-Entwicklung wurde Meta, die Muttergesellschaft von Facebook und Entwickler der beliebten Llama-Serie von KI-Modellen, mit der niedrigsten Note bewertet und erhielt insgesamt eine F-Note. X.AI, das KI-Unternehmen von Elon Musk, schnitt ebenfalls schlecht ab und erhielt insgesamt eine D-Note. Weder Meta noch x.AI reagierten auf eine Bitte um Stellungnahme.
Das Unternehmen hinter ChatGPT, OpenAI – das Anfang des Jahres von der ehemaligen Leiterin eines seiner Sicherheitsteams beschuldigt wurde, „schöne Produkte“ der Sicherheit vorgezogen zu haben – erhielt ein D+, ebenso wie Google DeepMind. Keines der Unternehmen antwortete auf eine Bitte um Stellungnahme. Zhipu AI, der einzige chinesische KI-Entwickler, der im Mai auf dem Seoul AI Summit eine Erklärung unterzeichnete, wurde mit D bewertet. Zhipu konnte nicht für eine Stellungnahme erreicht werden.
Anthropic, das Unternehmen hinter dem Claude-Chatbot, das Sicherheit zu einem zentralen Bestandteil seiner Philosophie gemacht hat, erzielte die höchste Punktzahl. Dennoch erhielt das Unternehmen eine C-Note, was darauf hinweist, dass selbst bei den sichersten Akteuren der Branche noch Verbesserungspotenzial besteht. Anthropic antwortete nicht auf eine Bitte um Stellungnahme.
Insbesondere stellte der Bericht fest, dass alle bewerteten Flaggschiffmodelle anfällig für „Jailbreaks“ oder Techniken sind, die die System-Sicherheitsvorkehrungen außer Kraft setzen. Darüber hinaus hielt das Bewertungsteam die aktuellen Strategien aller Unternehmen für unzureichend, um sicherzustellen, dass hypothetische zukünftige KI-Systeme, die der menschlichen Intelligenz entsprechen, sicher und unter menschlicher Kontrolle bleiben.
„Ich denke, es ist sehr leicht, sich von guten Absichten in die Irre führen zu lassen, wenn niemand einen zur Rechenschaft zieht“, sagt Tegan Maharaj, Assistenzprofessorin in der Abteilung für Entscheidungsfindung an der HEC Montréal, die dem Gremium angehörte. Maharaj fügt hinzu, dass sie einen Bedarf an „unabhängiger Aufsicht“ sieht, anstatt sich allein auf die Durchführung interner Bewertungen durch Unternehmen zu verlassen.
Es gibt einige Beispiele für „Low-Hanging Fruits“, sagt Maharaj, oder relativ einfache Maßnahmen einiger Entwickler, um die Sicherheit ihrer Technologie geringfügig zu verbessern. „Einige Unternehmen tun nicht einmal das Grundlegende“, fügt sie hinzu. Beispielsweise könnten Zhipu AI, x.AI und Meta, die jeweils schlecht bei der Risikobewertung abschnitten, bestehende Richtlinien übernehmen, argumentiert sie.
Andere Risiken sind jedoch grundlegender für die Art und Weise, wie KI-Modelle derzeit produziert werden, und ihre Überwindung erfordert technische Durchbrüche. „Keine der aktuellen Aktivitäten bietet eine quantitative Sicherheitsgarantie; es scheint auch nicht möglich zu sein, solche Garantien angesichts des aktuellen Ansatzes von KI über riesige Black Boxes zu geben, die mit unvorstellbar großen Datenmengen trainiert werden“, sagte Russell. „Und es wird nur noch schwieriger werden, wenn diese KI-Systeme größer werden.“ Forscher arbeiten an Techniken, um in die Black Box von Machine-Learning-Modellen zu schauen.
In einer Erklärung betonte Bengio, Gründer und wissenschaftlicher Leiter des Montreal Institute for Learning Algorithms, die Bedeutung von Initiativen wie dem AI Safety Index. „Sie sind ein wichtiger Schritt, um Unternehmen für ihre Sicherheitszusagen zur Rechenschaft zu ziehen, und können dazu beitragen, bewährte Verfahren hervorzuheben und Wettbewerber zu ermutigen, verantwortungsvollere Ansätze zu übernehmen“, sagte er.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.