Google in einer “schrecklichen Zwickmühle” durch das Zurückziehen einer KI-Funktion nach rechtsextremer Gegenreaktion

(SeaPRwire) –

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen. 

Der Februar sollte ein herausragender Monat für s ehrgeizige Strategie im Bereich der künstlichen Intelligenz werden. Das Unternehmen benannte seinen Chatbot in um und veröffentlichte zwei wichtige Produktupdates, um im harten Wettbewerb der KI-Industrie bestehen zu können. Im Zuge dessen gestattete -Nutzern auch die Erstellung realistisch aussehender Bilder von Personen.

Anfangs bemerkten nur wenige die Funktion. Andere Unternehmen wie bieten bereits Tools an, mit denen Nutzer schnell Bilder von Personen erstellen können, die dann für Marketing, Kunst und kreative Ideenfindung verwendet werden können. Wie andere KI-Produkte bergen auch diese Bildgeneratoren jedoch das Risiko, Vorurteile aufgrund der Daten aufrechtzuerhalten, mit denen sie im Entwicklungsprozess gefüttert wurden. Wird beispielsweise eine Krankenschwester angefragt, zeigen einige KI-Dienste eher eine Frau an; fragt man nach einem CEO, sieht man oft einen Mann.

Innerhalb weniger Wochen nach der Einführung der Funktion durch bemerkten -Nutzer ein anderes Problem. Ab dem 20. Februar und während der gesamten Woche überfluteten Nutzer auf die Social-Media-Plattform mit Beispielen dafür, dass keine Weißen zeigt – selbst in einem historischen Kontext, in dem sie wahrscheinlich die Darstellungen dominierten, wie etwa wenn Nutzer Bilder der Gründerväter oder eines deutschen Soldaten aus dem Jahr 1943 anforderten. Es dauerte nicht lange, bis Persönlichkeiten des öffentlichen Lebens und Nachrichtenagenturen mit einem großen Publikum von rechten Anhängern unter Berufung auf zweifelhafte Beweise behaupteten, ihre Tests von hätten gezeigt, dass eine versteckte Agenda gegen Weiße habe.

Elon Musk, der Besitzer von , mischte sich ein und befasste sich mit Dutzenden von Beiträgen über die unbegründete Verschwörung, darunter mehrere, in denen einzelne -Führungskräfte als angebliche Architekten der Politik genannt wurden. Am Donnerstag stoppte Bildgenerierung von Personen. Am nächsten Tag versuchte Prabhakar Raghavan, der leitende Vizepräsident von , Licht in die Entscheidung des Unternehmens zu bringen, erläuterte jedoch nicht ausführlich, warum die Funktion gescheitert war.

Googles Veröffentlichung eines Produkts, das schlecht für die Bearbeitung von Anfragen nach historischen Bildern gerüstet war, zeigt die einzigartige Herausforderung auf, vor der Tech-Unternehmen stehen, wenn es darum geht, zu verhindern, dass ihre KI-Systeme Voreingenommenheit und Fehlinformationen verstärken – insbesondere angesichts des Wettbewerbsdrucks, KI-Produkte schnell auf den Markt zu bringen. Anstatt die Veröffentlichung eines fehlerhaften Bildgenerators zurückzuhalten, versuchte eine Pflasterlösung.

Als das Tool auf den Markt brachte, enthielt es eine technische Lösung, um die Voreingenommenheit in seinen Ergebnissen zu reduzieren, so zwei Personen, die mit der Angelegenheit vertraut sind und darum baten, dass ihre privaten Informationen nicht weitergegeben werden. habe dies jedoch getan, ohne alle Möglichkeiten zu antizipieren, wie das Tool fehlschlagen könnte, sagten die Personen, und ohne transparent über seinen Ansatz zu sein.

Googles Überkorrektur der bekannten Voreingenommenheit von KI gegenüber People of Color machte es anfällig für einen weiteren Sturm der Entrüstung über Diversität. Der Tech-Riese sah sich im Laufe der Jahre Kritik ausgesetzt, weil er fälschlicherweise Bilder von Schwarzen zurückgab, als Nutzer in seiner -App nach „Gorillas“ suchten, sowie wegen eines langwierigen öffentlichen Streits darüber, ob er angemessen gehandelt habe, als er die Leiter seines Ethik-Teams für KI entließ.

Da so schnell handelte, um dieses Tool anzuhalten, ohne angemessen zu erklären, warum die Systeme so reagierten, wie sie es taten, befürchten und andere im Silicon Valley nun, dass der Schritt des Unternehmens abschreckend wirken wird. Sie sagen, dass es Talente davon abhalten könnte, an Fragen der KI und Voreingenommenheit zu arbeiten – ein wichtiges Thema für diesen Bereich.

„Die Technologiebranche insgesamt und an der Spitze hat sich wieder einmal in eine schreckliche Bindung gebracht, die sie selbst verursacht hat“, sagte Laura Edelson, Assistenzprofessorin an der Northeastern University, die KI-Systeme und den Informationsfluss in großen Online-Netzwerken untersucht hat. „Die Branche muss KI unbedingt als Magie darstellen und nicht als “, sagte sie und bezog sich auf eine populäre Metapher, die beschreibt, wie KI-Systeme menschliche Sprache durch statistischen Mustervergleich imitieren, ohne echtes Verständnis oder Verständnis. „Aber Papageien sind das, was sie haben.“

ist als Kreativitäts- und Produktivitätstool konzipiert und ist möglicherweise nicht immer korrekt oder zuverlässig“, sagte ein Sprecher von in einer Erklärung. „Wir arbeiten weiter daran, Fälle schnell anzugehen, in denen das Produkt nicht angemessen reagiert.“

In einer E-Mail an Mitarbeiter am späten Dienstag sagte -CEO Sundar Pichai, dass Mitarbeiter „rund um die Uhr“ daran gearbeitet hätten, die Probleme zu beheben, die Nutzer mit den Antworten von gemeldet hatten, und fügte hinzu, dass das Unternehmen „eine erhebliche Verbesserung bei einer Vielzahl von Anfragen“ verzeichnet habe.

„Ich weiß, dass einige seiner Antworten unsere Nutzer beleidigt und Voreingenommenheit gezeigt haben – um es klar zu sagen, das ist völlig inakzeptabel und wir haben es falsch gemacht“, schrieb Pichai in dem Memo, das zuerst von berichtet wurde. „Keine KI ist perfekt, besonders nicht in diesem frühen Stadium der Entwicklung der Branche, aber wir wissen, dass die Messlatte für uns hoch ist, und wir werden so lange daran arbeiten, wie es dauert. Und wir werden überprüfen, was passiert ist, und sicherstellen, dass wir es in großem Maßstab beheben.“

, die an ethischer KI arbeiten, hatten im vergangenen Jahr mit geringer Moral und einem Gefühl der Ohnmacht zu kämpfen, da das Unternehmen die Einführung von KI-Produkten beschleunigt hatte, um mit Rivalen wie Schritt zu halten. Während die Einbeziehung von People of Color in -Bilder Rücksicht auf Diversität zeigte, deutete sie darauf hin, dass das Unternehmen die verschiedenen Kontexte, in denen Nutzer versuchen könnten, Bilder zu erstellen, nicht vollständig durchdacht hatte, sagte Margaret Mitchell, die ehemalige Co-Leiterin von Ethical AI Research Group und Chief Ethics Scientist beim KI-Start-up . Eine andere Überlegung zur Vielfalt sei möglicherweise angebracht, wenn Nutzer nach Bildern davon suchen, wie ihrer Meinung nach die Welt sein sollte, und nicht danach, wie die Welt tatsächlich zu einem bestimmten Zeitpunkt in der Geschichte war.

„Die Tatsache, dass auf Hautfarbunterschiede achtet, ist ein Quantensprung im Vergleich zu vor vier Jahren. Es ist also sozusagen zwei Schritte vorwärts, ein Schritt zurück“, sagte Mitchell. „Sie sollten dafür anerkannt werden, dass sie sich tatsächlich mit diesem Zeug beschäftigt haben. Es ist nur so, dass sie noch ein bisschen weiter hätten gehen müssen, um es richtig zu machen.“

Googles Imageproblem

Für , das einige der Techniken entwickelt hat, die heute im Mittelpunkt des KI-Booms stehen, besteht seit langem ein immenser Druck, die Bildgenerierung richtig zu machen. war so besorgt darüber, wie die Leute , sein KI-Bildgenerierungsmodell, nutzen würden, dass es die Funktion für längere Zeit nach dem nicht für die Öffentlichkeit freigab.

Über die Jahre diskutierten Teams im Unternehmen darüber, wie sichergestellt werden kann, dass ihr KI-Tool verantwortungsvoll fotorealistische Bilder von Menschen erstellt, sagten zwei Personen, die mit der Angelegenheit vertraut sind und darum baten, keine internen Diskussionen zu führen. Wenn Mitarbeiter, die intern mit experimentierten, das Programm aufforderten, ein Bild eines Menschen zu erstellen – oder sogar eines, das implizit Menschen einschließt, wie etwa ein Fußballstadion – würde es laut einer Person mit einem schwarzen Balken antworten. nahm die Möglichkeit, Bilder von Personen in zu generieren, erst nach mehreren Überprüfungen auf, sagte eine andere Person.

habe nicht alle Möglichkeiten getestet, wie die Funktion unerwartete Ergebnisse liefern könnte, sagte eine Person, aber sie wurde als gut genug für die erste Version von Bildgenerierungstool angesehen, das der Öffentlichkeit zur Verfügung gestellt wurde. Obwohl die Teams von bei der Entwicklung des Tools vorsichtig vorgegangen waren, herrschte intern ein breites Gefühl, dass das Unternehmen auf diese Art von Auswirkungen unvorbereitet gewesen sei, sagten sie.

Als Nutzer auf Bilder von ahistorischen Darstellungen von Personen in Umlauf brachten, brannten die internen Mitarbeiterforen von laut einem aktuellen Mitarbeiter mit Beiträgen über