Die KI, die das Internet heilen könnte

(SeaPRwire) –   In den 1990er und frühen 2000er Jahren machten Technologen der Welt ein großes Versprechen: Neue Kommunikationstechnologien würden die Demokratie stärken, Autoritarismus untergraben und eine neue Ära des menschlichen Gedeihens einleiten. Aber heute würde wohl kaum jemand zustimmen, dass das Internet dieses hohe Ziel erfüllt hat.

Heute tendiert der Inhalt in sozialen Medien dazu, nach dem Maß der Beteiligung bewertet zu werden. In den letzten zwei Jahrzehnten wurden Politik, Medien und Kultur alle umgeformt, um einem einzigen, übergeordneten Anreiz zu entsprechen: Beiträge, die eine emotionale Reaktion hervorrufen, steigen häufig an die Spitze.

Bemühungen, die Gesundheit von Online-Räumen zu verbessern, konzentrierten sich lange auf die Inhaltsmoderation, also die Erkennung und Entfernung schlechter Inhalte. Technologieunternehmen stellten Mitarbeiter ein und bauten KI auf, um Hassrede, Aufrufe zur Gewalt und Belästigung zu identifizieren. Das funktionierte unvollkommen, aber es hinderte die schlimmste Toxizität daran, unsere Feeds zu überschwemmen.

“Sehen Sie ein Internet, das funktioniert, in dem wir Gespräche führen, die gesund oder produktiv sind?”, fragt Yasmin Green, CEO von Googles Jigsaw-Einheit, die 2010 mit dem Auftrag gegründet wurde, Bedrohungen für offene Gesellschaften zu bekämpfen. “Nein. Sie sehen ein Internet, das sich immer weiter auseinanderdividiert.”

Was wäre, wenn es einen anderen Weg gäbe?

Jigsaw glaubt, einen gefunden zu haben. Am Montag stellte die Google-Tochter neue Klassifikatoren oder Klassifizierer vor, die Beiträge anhand der Wahrscheinlichkeit bewerten können, dass sie positiven Inhalt enthalten: Enthält ein Beitrag Nuancen? Enthält er evidenzbasierte Argumentation? Teilt er eine persönliche Geschichte oder fördert er menschliche Mitgefühl? Indem sie eine numerische Punktzahl (von 0 bis 1) angeben, die die Wahrscheinlichkeit eines Beitrags für jeden dieser und anderer Tugenden repräsentiert, könnten diese neuen KI-Werkzeuge es Designern von Online-Räumen ermöglichen, Beiträge auf eine neue Weise zu bewerten. Anstatt dass Beiträge mit den meisten Likes oder Kommentaren oben stehen, könnten Plattformen – um eine bessere Gemeinschaft zu fördern – sich dafür entscheiden, die nuanciertesten oder mitfühlendsten Kommentare zuerst zu zeigen.

Der Durchbruch wurde durch jüngste Fortschritte bei großen Sprachmodellen (LLM) ermöglicht, der Art von KI, die Chatbots wie ChatGPT antreibt. Früher erforderten selbst die Ausbildung einer KI, um einfache Formen von Toxizität wie Rassismus zu erkennen, Millionen markierter Beispiele. Diese älteren Formen der KI waren oft fragil und ineffektiv, geschweige denn teuer zu entwickeln. Aber die neue Generation von LLMs kann sogar komplexe sprachliche Konzepte von selbst erkennen, und ihre Kalibrierung für spezifische Aufgaben ist bei weitem kostengünstiger als früher. Jigsaws neue Klassifikatoren können “Attribute” wie die Frage identifizieren, ob ein Beitrag eine persönliche Geschichte, Neugier, Nuancen, Mitgefühl, Argumentation, Affinität oder Respekt enthält. “Es beginnt machbar zu werden, über etwas wie den Aufbau eines Klassifikators für Mitgefühl, Neugierde oder Nuancen zu sprechen”, sagt Jonathan Stray, leitender Wissenschaftler am Berkeley Center for Human-Compatible AI. “Diese unscharfen, kontextuellen, man-erkennt-sie-wenn-man-sie-sieht Arten von Konzepten – wir werden immer besser darin, diese zu erkennen.”

Diese neue Fähigkeit könnte ein Wendepunkt für das Internet sein. Green und ein wachsender Chor von Wissenschaftlern, die sich mit den Auswirkungen sozialer Medien auf die öffentliche Diskussion beschäftigen, argumentieren, dass Inhaltsmoderation “notwendig, aber nicht ausreichend” ist, um das Internet zu einem besseren Ort zu machen. Ein Weg, positiven Inhalt zu fördern, könne weitreichende positive Auswirkungen sowohl auf persönlicher Ebene – unsere Beziehungen zueinander – als auch auf gesellschaftlicher Ebene haben. “Wenn Sie die Art und Weise ändern, wie Inhalte bewertet werden, und Sie es auf breiter Basis tun können, könnten Sie möglicherweise die Medienökonomie des gesamten Systems ändern”, sagt Stray, der nicht an dem Jigsaw-Projekt gearbeitet hat. “Wenn genügend algorithmische Verteilungskanäle hetzerische Rhetorik benachteiligen würden, würde es sich einfach nicht mehr lohnen, sie zu produzieren.”

Eines Morgens Ende März schließt sich Tin Acosta von den Büros von Jigsaw in New York City einer Videokonferenz an. An der Wand im Konferenzraum hinter ihr hängt ein großes Foto aus der Rose Revolution in Georgien aus dem Jahr 2003, als friedliche Demonstranten die sowjetische Regierung des Landes stürzten. Andere Räume zeigen ähnliche Fotos von Menschen in Syrien, dem Iran, Kuba und Nordkorea, “die mit Technologie und ihrer Stimme ihre Freiheit sichern”, wie Jigsaws Pressesprecher, der ebenfalls im Raum ist, mir sagt. Die Fotos sollen daran erinnern, welche Mission Jigsaw hat, Technologie als Kraft für das Gute einzusetzen, und seine Pflicht, Menschen in Demokratien und unterdrückenden Gesellschaften zu dienen.

Auf ihrem Laptop startet Acosta eine Demonstration von Jigsaws neuen Klassifikatoren. Unter Verwendung einer Datenbank mit 380 Kommentaren aus einem kürzlichen Reddit-Thread beginnt die leitende Produktmanagerin von Jigsaw zu zeigen, wie sich die Art der Kommentare ändern würde, die oben stehen, wenn die Beiträge mit verschiedenen Klassifikatoren bewertet werden. Der ursprüngliche Beitrag hatte nach lebensbejahenden Filmempfehlungen gefragt. Sortiert nach der Standardbewertung auf Reddit – Beiträge mit den meisten Hochwählis – sind die obersten Kommentare kurz und enthalten wenig mehr als die Titel beliebter Filme. Dann klickt Acosta auf ein Dropdown-Menü und wählt Jigsaws Klassifikator für Argumentation aus. Die Beiträge ordnen sich neu. Jetzt sind die obersten Kommentare ausführlicher. “Hier beginnen Sie Menschen zu sehen, die wirklich nachdenklich auf ihre Antworten eingehen”, sagt Acosta. “Hier spricht jemand über School of Rock – nicht nur über den Inhalt der Handlung, sondern auch darüber, wie der Film sein Leben verändert und ihn in die Musik verliebt gemacht hat.” (TIME stimmte zu, die Kommentare nicht direkt zu zitieren, da Jigsaw sagte, sie dienten nur Demonstrationszwecken und seien nicht zur Ausbildung ihrer KI-Modelle verwendet worden.)

Acosta wählt einen anderen Klassifikator aus, einen ihrer Favoriten: Ob ein Beitrag eine persönliche Geschichte enthält. Der oberste Kommentar stammt nun von einem Nutzer, der beschreibt, wie er unter einer dicken Decke und dem Einfluss von Drogen bei Ke Huy Quans Monolog in Everything Everywhere All at Once so heftig geheult habe, dass er den Film mehrmals hatte pausieren müssen. Ein anderer Top-Kommentar beschreibt, wie ihn ein Filmtrailer dazu inspiriert hatte, einen Job aufzugeben, in dem er unglücklich war. Ein weiterer erzählt die Geschichte, wie ihn ein Film an seine Schwester erinnert habe, die zehn Jahre zuvor gestorben war. “Das ist wirklich eine großartige Möglichkeit, ein Gespräch besser zu verstehen als über Engagement oder Aktualität”, sagt Acosta.

Damit die Klassifikatoren Auswirkungen auf das breitere Internet haben, wäre die Zustimmung der größten Technologieunternehmen erforderlich, die sich alle in einem Nullsummenspiel um unsere Aufmerksamkeit befinden. Obwohl sie bei Google entwickelt wurden, hat der Technologieriese keine Pläne, sie zu nutzen, um seine YouTube-Kommentare besser zu bewerten, sagt Green. Stattdessen stellt Jigsaw die Werkzeuge kostenlos unabhängigen Entwicklern zur Verfügung, in der Hoffnung, dass kleinere Online-Räume wie Foren und Kommentarbereiche von Zeitungen eine Evidenzbasis aufbauen, dass die neuen Formen der Bewertung bei den Nutzern beliebt sind.

Es gibt einige Gründe für Skepsis. Trotz aller Mängel ist die Bewertung nach Engagement egalitär. Beliebte Beiträge werden verstärkt, unabhängig von ihrem Inhalt, und auf diese Weise haben soziale Medien marginalisierten Gruppen ermöglicht, eine Stimme zu erlangen, die ihnen von traditionellen Medien lange verwehrt wurde. Die Einführung von KI könnte diese Ausgangslage bedrohen. Eine Fülle von Forschung zeigt, dass LLMs viele eingebaute Voreingenommenheiten haben; wenn sie zu eilig angewendet würden, könnten Jigsaws Klassifikatoren das Problem verschärfen, indem sie Stimmen verstärken, die ohnehin schon prominent im Internet sind und damit solche weiter marginalisieren, die es nicht sind. Die Klassifikatoren könnten auch das Problem verstärken, dass KI-generierte Inhalte das Internet überschwemmen, indem sie Spammern ein einfaches Rezept für KI-generierte Inhalte liefern, die wahrscheinlich verstärkt werden. Selbst wenn Jigsaw diese Probleme umgeht, ist das Manipulieren von Online-Rede zu einem politischen Minenfeld geworden. Sowohl Konservative als auch Liberale sind davon überzeugt, dass ihre Beiträge zensiert werden; unterdessen stehen Technologieunternehmen wegen undurchsichtiger Entscheidungen in der Kritik, die den globalen öffentlichen Raum beeinflussen. Jigsaw argumentiert, dass seine neuen Werkzeuge Technologieplattformen ermöglichen könnten, weniger auf die umstrittene Praxis der Inhaltsmoderation zurückzugreifen. Es gibt jedoch kein Entkommen davor, dass eine Änderung der Art von Rede, die online belohnt wird, immer politische Gegner haben wird.

Dennoch glaubt die akademische Forschung zunehmend, dass positive Veränderungen möglich sind.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.