Ethische KI ist nicht für Googles Gemini-Debakel verantwortlich

In this photo illustration, the Google Gemini logo is seen

(SeaPRwire) –   Anfang des Monats veröffentlichte Google sein lang erwartetes System „Gemini“, das Nutzern erstmals Zugriff auf seine KI-Bilderzeugungstechnologie gewährte. Während die meisten frühen Nutzer der Meinung waren, dass das System beeindruckend sei und in Sekundenschnelle detaillierte Bilder für Texteingaben erstellte, stellten Nutzer bald fest, dass es schwierig war, das System dazu zu bringen, Bilder von Weißen zu erzeugen, und bald zeigten virale Tweets verblüffende Beispiele wie .

Manche warfen Gemini vor, „zu wach“ zu sein und „Gemini“ als neueste Waffe in einem eskalierenden Kulturkampf um die Bedeutung der Anerkennung der Auswirkungen historischer Diskriminierung zu verwenden. Viele sagten, es spiegele eine Malaise innerhalb Googles wider, und einige das Feld der „KI-Ethik“ als Peinlichkeit.

Die Annahme, dass die Arbeit an KI-Ethik schuld sei, ist falsch. Tatsächlich hat Gemini Google die Lektionen der KI-Ethik gezeigt. Wo sich die KI-Ethik auf die Bewältigung vorhersehbarer Anwendungsfälle – wie historische Darstellungen – konzentriert, scheint Gemini sich für einen „One-Size-Fits-All“-Ansatz entschieden zu haben, was zu einer unangenehmen Mischung aus erfrischender Vielfalt und erschreckenden Ergebnissen führte.

Ich sollte es wissen. Ich arbeite seit über 10 Jahren an Ethik in der KI bei Technologieunternehmen und bin damit einer der weltweit führenden Experten auf diesem Gebiet (es ist ein junges Feld!). Ich habe außerdem Googles „Ethical AI“-Team gegründet und mitgeleitet, bevor sie mich und meinen Co-Leiter entlassen haben, nachdem unser Bericht genau vor diesen Problemen bei der Sprachgenerierung gewarnt hatte. Viele Leute kritisierten Google für ihre Entscheidung, da sie glaubten, sie spiegele systematische Diskriminierung und eine Priorisierung rücksichtsloser Geschwindigkeit gegenüber gut durchdachter Strategie in der KI wider. Es ist möglich, dass ich voll und ganz zustimme.

Das Gemini-Debakel legte erneut Googles unerfahrene Strategie in Bereichen offen, in denen ich besonders qualifiziert bin, zu helfen, und die ich der Öffentlichkeit jetzt allgemein verständlich machen kann. In diesem Artikel werden einige Möglichkeiten erörtert, wie KI-Unternehmen beim nächsten Mal bessere Ergebnisse erzielen können, um zu vermeiden, der extremen Rechten nutzlose Munition in Kulturkämpfen zu liefern und sicherzustellen, dass KI in Zukunft so vielen Menschen wie möglich zugute kommt.

Eines der entscheidenden Elemente bei der Operationalisierung von Ethik in KI besteht darin, vorhersehbare Nutzung, einschließlich böswillige Nutzung und Missbrauch, zu formulieren. Dies bedeutet, Fragen wie z. B. Sobald das Modell, das wir bauen wollen, bereitgestellt ist, wie werden die Menschen es nutzen? Und wie können wir es so gestalten, dass es in diesen Kontexten so vorteilhaft wie möglich ist? Dieser Ansatz erkennt die zentrale Bedeutung des „Nutzungskontexts“ bei der Erstellung von KI-Systemen an. Diese Art von Voraussicht und kontextuellem Denken, die auf dem Zusammenspiel von Gesellschaft und Technologie beruht, ist für manche Menschen schwieriger als für andere – hier sind Menschen mit Fachkenntnissen in den Bereichen Mensch-Computer-Interaktion, Sozialwissenschaften und Kognitionswissenschaften besonders geschickt (was für die Bedeutung der Interdisziplinarität bei der Einstellung von Technik spricht). Diese Rollen haben tendenziell nicht so viel Macht und Einfluss wie Ingenieursrollen, und ich vermute, dass dies im Fall von Gemini zutraf: Diejenigen, die am besten darin waren, vorhersehbare Anwendungen zu formulieren, wurden nicht ermächtigt, was zu einem System führte, das nicht mit verschiedenen Arten angemessener Verwendungen umgehen konnte, wie z die Darstellung historisch weißer Gruppen.

Es geht schief, wenn Unternehmen alle Anwendungsfälle als einen Anwendungsfall behandeln oder Anwendungsfälle überhaupt nicht modellieren. Daher verfügen KI-Systeme ohne eine ethisch fundierte Analyse von Anwendungsfällen in verschiedenen Kontexten möglicherweise nicht über Modelle „unter der Haube“, die dabei helfen, zu identifizieren, was der Nutzer anfordert (und ob es generiert werden sollte). Für Gemini könnte dies bedeuten, festzustellen, ob der Benutzer Bilder sucht, die historisch oder vielfältig sind und ob seine Anfrage mehrdeutig oder böswillig ist. Wir haben kürzlich dasselbe Versäumnis gesehen, robuste Modelle für vorhersehbare Nutzung zu erstellen, was zu .

Um zu helfen, habe ich vor Jahren die folgende Tabelle erstellt. Die Aufgabe besteht darin, die Felder auszufüllen. Ich habe es heute mit einigen Beispielen ausgefüllt, die speziell für Gemini relevant sind.

Die grünen Zellen (obere Reihe) sind diejenigen, in denen vorteilhafte KI am wahrscheinlichsten möglich ist (nicht, wo KI immer vorteilhaft sein wird). Die roten Zellen (mittlere Reihe) sind diejenigen, bei denen schädliche KI am wahrscheinlichsten ist (aber auch unvorhergesehene nützliche Innovationen auftreten können). Die restlichen Zellen haben eher gemischte Ergebnisse – manche Ergebnisse sind gut, manche schlecht.

Die nächsten Schritte umfassen die Bearbeitung wahrscheinlicher Fehler in verschiedenen Kontexten und die Behebung unverhältnismäßiger Fehler bei Untergruppen, die einer Diskriminierung ausgesetzt sind. Die Entwickler von Gemini scheinen diesen Teil weitgehend richtig verstanden zu haben. Das Team scheint die Voraussicht gehabt zu haben, das Risiko einer Überrepräsentation weißer Menschen in neutralen oder positiven Situationen zu erkennen, was eine problematische weißdominierte Weltsicht verstärken würde. Daher gab es wahrscheinlich ein Submodul innerhalb von Gemini, das entwickelt wurde, um den Benutzern dunklere Hauttöne anzuzeigen.

Die Tatsache, dass diese Schritte in Gemini offensichtlich sind, nicht aber die Schritte zur vorhersehbaren Nutzung, kann teilweise auf das gestiegene öffentliche Bewusstsein für Voreingenommenheit in KI-Systemen zurückzuführen sein: Eine pro-weiße Voreingenommenheit war ein leicht vorhersehbarer PR-Albtraum, der , während die differenzierten Ansätze für den Umgang mit „Nutzungskontext“ nicht waren. Das Nettoergebnis war ein System, das “das Ziel verfehlte”, verschiedene vorhersehbare Anwendungsfälle einzubeziehen.

Der übergeordnete Punkt ist, dass es möglich ist, Technologie zu haben, die den Benutzern zugute kommt und den Schaden für diejenigen minimiert, die am ehesten negativ betroffen sind. Aber man muss Leute haben, die darin gut sind, dies in Entwicklungs- und Bereitstellungsentscheidungen einzubeziehen. Und diese Menschen werden in der Technik oft entmachtet (oder schlimmer). Das muss nicht so sein: Wir können unterschiedliche Wege für KI haben, die die richtigen Leute für das befähigen, wofür sie am besten geeignet sind. Wo verschiedene Perspektiven gesucht und nicht unterdrückt werden. Um dorthin zu gelangen, bedarf es harter Arbeit und zerzauster Federn. Wir werden wissen, dass wir auf einem guten Weg sind, wenn wir beginnen, Technologiemanager zu sehen, die so vielfältig sind wie die von Gemini generierten Bilder.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.