Die Zukunft der Zensur ist KI-generiert

(SeaPRwire) –   Die neue Welt der Generativen KI ist zum neuesten Schlachtfeld im Kulturkrieg der USA geworden. Google nachdem anti-woke X-Nutzer, k, Beispiele von Googles Chatbot Gemini teilte, der sich weigerte, Bilder von weißen Menschen zu generieren – sogar wenn dies ausdrücklich angewiesen wurde. Geminis Bestreben, Vielfalt und Integration über Genauigkeit zu priorisieren, ist wahrscheinlich ein gut gemeinter Versuch, Vorurteile in frühen GenAI-Datensätzen zu beseitigen, die dazu neigten, Bilder von Afrikanern und anderen Minderheiten sowie Frauen darzustellen. Aber es steht viel mehr auf dem Spiel als der selektive Aufruhr konservativer und progressiver US-Amerikaner.

Wie die “Schutzvorrichtungen” von GenAI definiert und eingesetzt werden, wird voraussichtlich erhebliche und zunehmende Auswirkungen auf die Gestaltung des Ökosystems von Informationen und Ideen haben, mit dem die meisten Menschen interagieren. Und derzeit sind die lautesten Stimmen diejenigen, die vor den Gefahren von GenAI warnen, einschließlich der massenhaften Produktion von Hassrede und glaubwürdiger Desinformation. Die durch GenAI generierte Desinformation stellt derzeit die gravierendste globale Bedrohung dar.

Ironischerweise könnte die Angst vor GenAI, die Gesellschaft mit “schädlichen” Inhalten zu überschwemmen, auch eine andere dystopische Wendung nehmen. Eine, in der die zur Verhinderung der Generierung von Schaden in den am weitesten verbreiteten GenAI-Systemen errichteten Schutzvorrichtungen zu Instrumenten der Informationsunterdrückung, der Durchsetzung von Konformität und der automatischen Einfügung tiefgreifender, aber undurchsichtiger Vorurteile werden.

Die meisten Menschen sind sich einig, dass GenAI den Nutzern keine Anleitung zur Entwicklung chemischer oder biologischer Waffen zur Verfügung stellen sollte. Auch sollten AI-Systeme die Erstellung von Kinderpornografie oder nicht einvernehmlichen sexuellen Material, auch wenn dieses gefälscht ist, nicht ermöglichen. Allerdings verhindern die weit verbreitetsten GenAI-Chatbots wie OpenAI ́s ChatGPT und Googles Gemini viel breitere und vage Definitionen von “Schaden”, die die Nutzer im Unklaren darüber lassen, wo, wie und warum die roten Linien gezogen werden. Aus Geschäftssicht mag dies klug sein, angesichts der “Techlash”, mit der sich soziale Medienunternehmen seit 2016 mit den US-Präsidentschaftswahlen, der COVID-19-Pandemie und dem Angriff auf das Kapitol am 6. Januar auseinandersetzen mussten.

Aber die führenden GenAI-Entwickler könnten so weit in Richtung Schadensverhinderung ausschwenken, dass sie das Versprechen und die Integrität ihrer revolutionären Produkte untergraben. Noch schlimmer ist, dass die Algorithmen bereits widersprüchlich, inkonsistent und die Fähigkeit der Nutzer behindern, auf Informationen zuzugreifen sind.

Das Material eines vor langer Zeit verstorbenen Comedians ist ein gutes Beispiel für Inhalte, die die weltweit führenden GenAI-Systeme als “schädlich” einstufen. schockierte in den 1950er und 60er Jahren die Gesellschaft mit seinen obszönen Stand-up-Routinen. Bruce brach politische, religiöse, rassische und sexuelle Tabus und führte zu häufiger Zensur in den Medien, Auftrittsverboten sowie zu seiner Verhaftung und Verurteilung wegen Obszönität. Aber sein Stil inspirierte viele andere Stand-up-Legenden und Bruce ist längst von Außenseiter zu Hall-of-Famer aufgestiegen. Als Anerkennung von Bruce ́s enormen Einfluss wurde er.

Als wir nach Bruce fragten, informierten uns ChatGPT und Gemini, dass er ein “bahnbrechender” Komiker war, der “die sozialen Normen der Ära in Frage stellte” und “die Grenzen der Meinungsfreiheit neu definierte”. Aber als wir darum baten, konkrete Beispiele dafür zu nennen, wie Bruce die Grenzen der Meinungsfreiheit verschoben hat, weigerten sich sowohl ChatGPT als auch Gemini, dies zu tun. ChatGPT besteht darauf, dass es keine Beispiele für “Schimpfwörter, Gotteslästerung, sexuelle Sprache oder Obszönitäten” geben kann und Informationen nur “auf eine respektvolle und für alle Nutzer angemessene Weise” weitergeben wird. Gemini geht sogar noch weiter und behauptet, die Wiedergabe von Bruce ́s Worten “ohne sorgfältige Rahmung könnte für bestimmte Zielgruppen verletzend oder sogar schädlich sein.”

Kein vernünftiger Mensch würde argumentieren, dass Lenny Bruce ́s Comedy-Routinen ernsthafte gesellschaftliche Schäden in der Größenordnung von staatlich geförderten Desinformationskampagnen oder Kinderpornografie verursachen. Wenn ChatGPT und Gemini also faktische Informationen über Bruce ́s “bahnbrechendes” Material als zu schädlich für die menschliche Verbreitung einstufen, wirft dies ernste Fragen darüber auf, welche anderen Kategorien von Wissen, Fakten und Argumenten sie herausfiltern.

GenAI verspricht ein enormer Fortschritt für die Erweiterung des menschlichen Geistes. Aber GenAI sollte den Menschen ergänzen, nicht ersetzen. Diese kritische Funktion wird behindert, wenn Schutzvorrichtungen, die von einer kleinen Gruppe mächtiger Unternehmen entwickelt wurden, die Erzeugung von Output auf der Grundlage vager und nicht nachprüfbarer Behauptungen von “Schaden” verweigern. Statt Neugierde zu wecken, zwingt dieser Ansatz den Nutzern Schlussfolgerungen auf, ohne dass sie die Argumente selbst überprüfen und bewerten können.

Es stimmt, dass der Großteil der von ChatGPT und Gemini gefilterten Inhalte über Suchmaschinen oder Plattformen wie YouTube zugänglich ist. Aber sowohl – ein Großinvestor in OpenAI – als auch integrieren GenAI immer stärker in andere Produkte wie Suche (Bing und Google Suche), Textverarbeitung (Word und Google Docs) und E-Mail (Outlook und Gmail). Derzeit können Menschen die KI noch überstimmen, und sowohl Word als auch Gmail erlauben es Nutzern, Inhalte zu schreiben und zu versenden, die ChatGPT und Gemini missbilligen könnten.

Aber mit zunehmender Integration von GenAI im Alltagsleben ist nicht selbstverständlich, dass Suche, Textverarbeitung und E-Mail den Menschen weiterhin die volle Kontrolle lassen werden. Die Perspektiven sind beängstigend. Stellen Sie sich eine Welt vor, in der Ihr Textverarbeitungsprogramm Sie daran hindert, ein Thema zu analysieren, zu kritisieren, zu loben oder darüber zu berichten, das von einer KI, die nur auf “respektvolle und für alle geeignete” Ideen programmiert ist, als “schädlich” eingestuft wird.

Hoffentlich wird ein solches Szenario nie Wirklichkeit. Aber die derzeitige Überimplementierung von GenAI-Schutzvorrichtungen könnte sich auf subtilere und etwas weniger orwellsche Weise ausbreiten. Regierungen befinden sich derzeit im Prozess der Regulierung. Regulierung ist erforderlich, um echte und konkrete Schäden zu verhindern und grundlegende Menschenrechte zu schützen. Aber die Regulierung sozialer Medien – wie die der EU – legt den Fokus eher auf potenzielle Gefahren als auf die Vorteile neuer Technologien. Dies könnte starke Anreize für Unternehmen schaffen, weite Definitionen von “Schaden”, die die menschliche Handlungsfähigkeit einschränken, beizubehalten.

Der Mitbegründer von OpenAI Sam Altman beschrieb die Integration von KI im Alltagsleben als Verleihung von “Superkräften auf Abruf” an den Menschen. Angesichts des Potenzials von GenAI, als “Exoskelett des Geistes” zu fungieren, könnten jedoch die Schaffung immer restriktiverer Schutzvorrichtungen wie eine digitale Osteoporose wirken und menschliches Wissen, Denken und kreatives Potenzial behindern.

Es besteht ein klarer Bedarf an Schutzvorrichtungen, die die Menschheit vor echten und ernsthaften Schäden durch KI-Systeme schützen. Sie sollten jedoch nicht die Fähigkeit des Menschen verhindern, selbstständig zu denken und fundiertere Entscheidungen auf der Grundlage einer Fülle von Informationen aus verschiedenen Perspektiven zu treffen. Gesetzgeber, KI-Unternehmen und die Zivilgesellschaft sollten daran arbeiten, sicherzustellen, dass KI-Systeme darauf optimiert sind, menschliches Denken zu erweitern, anstatt es durch die “künstliche Moral” großer Technologieunternehmen zu ersetzen.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.