KI ist nicht unser Sicherheitsproblem bei Wahlen, sondern Desinformationen

WhatsApp und Facebook

(SeaPRwire) –   Dieser Wahlzyklus wird der erste sein, der generativer künstlicher Intelligenz ausgesetzt ist – der Technologie hinter beliebten Anwendungen wie ChatGPT, die es auch Nicht-Experten ermöglicht, gefälschte, aber realistisch aussehende Texte, Videos und Audioaufnahmen zu erstellen, die perfekt für politische Manipulation geeignet sind. Gleichzeitig haben sich einige der großen Social-Media-Unternehmen von einigen ihrer früheren Verpflichtungen zur Förderung der „Wahlintegrität“ zurückgezogen. Die Wahl im November ist auch die erste, die die Auswirkungen der enormen Popularität von TikTok registriert, das einen Empfehlungsalgorithmus verwendet, der einigen Experten zufolge besonders gut für die Verbreitung von Fehlinformationen geeignet ist.

Beginnen wir mit dem Aufstieg der generativen KI, die es praktisch jedem ermöglicht, überzeugende Texte, Bilder oder Töne auf der Grundlage relativ einfacher Eingaben in natürlicher Sprache zu erstellen. Im Januar verbreitete Facebook eine Fälschung von Donald Trump, der neben Jeffrey Epstein im Privatjet des in Ungnade gefallenen Finanzmanns und Sexualstraftäters saß. Im Februar gab ein demokratischer Berater, der für einen Außenseiter-Rivalen arbeitete, an, dass er einen von der KI generierten Anruf in Auftrag gegeben habe, der sich als Präsident Joe Biden ausgab und Tausende von Wählern davon abhalten sollte, an der Vorwahl in New Hampshire teilzunehmen. Der Generalstaatsanwalt des Bundesstaates hat eine strafrechtliche Untersuchung eingeleitet.

Die USA sind in dieser Hinsicht nicht allein. Im vergangenen September tauchte auf Facebook nur zwei Tage vor der slowakischen Parlamentswahl ein Audioclip auf, in dem der Kandidat der pro-NATO- und pro-Ukraine-Partei Progressive Slowakei angeblich darüber sprach, wie die Ergebnisse manipuliert werden könnten. Der Post wurde während eines Medienmoratoriums vor der Wahl viral, was die Möglichkeit einer Entlarvung einschränkte, und der Kandidat verlor gegen einen pro-russischen Rivalen.

Analysten haben Mühe, mit den Möglichkeiten Schritt zu halten. Eine im Februar in der Fachzeitschrift PNAS Nexus veröffentlichte Studie kommt zu dem Ergebnis, dass jeder politische Anzeigenmacher, der mit generativen KI-Tools ausgestattet ist, die Fähigkeit hat, „eine hochgradig skalierbare ‚Manipulationsmaschine‘ aufzubauen, die Einzelpersonen auf der Grundlage ihrer einzigartigen Schwachstellen anspricht, ohne dass menschliches Zutun erforderlich ist.“ Dies gibt Anlass zur Sorge, dass derartige russische Digitalagenten, die sich in die Wahl 2016 zur Unterstützung von Donald Trump einmischten, die KI als Kraftverstärker nutzen könnten, um erneut zu versuchen, die ohnehin schon polarisierte amerikanische Wählerschaft aufzustacheln.

Aber KI ist bei weitem nicht alles. Die Bedrohung durch künstlich erzeugte Fehlinformationen wird durch eine bekanntere Technologie verschärft: die sozialen Medien. 

Trotz der Verwirrung und Gewalt, die durch Trumps Versuch, das Wahlergebnis von 2020 zu untergraben, ausgelöst wurden, und der Bedrohung durch eine ähnliche Volatilität in diesem Jahr, haben große Plattformen wie Facebook, YouTube und vor allem X sich von einigen ihrer bisherigen Richtlinien zur Wahlintegrität zurückgezogen, wie wir in einem neuen Bericht darlegen, den wir für das Center on Global Affairs der New York University’s Stern School of Business mitverfasst haben.

Jede Diskussion über Rückschritte muss notwendigerweise mit X beginnen, das Elon Musk im Oktober 2022 übernommen hat. Der Wettbewerb durch Metas neue App Threads sowie Kontroversen im Zusammenhang mit Musk haben zugenommen. Dennoch besuchen durchschnittlich 13 Millionen Menschen die Website jeden Monat, und sie behält die Loyalität vieler einflussreicher Politiker, Journalisten und Entertainer. Im Frühjahr 2023 hatte Musk 6.000 oder 80 % der Mitarbeiter von X gefeuert. Im September 2023 sagte Meta, das Unternehmen, das die Wahlintegritätsabteilung der Plattform leitete: „Ja, die sind weg.“ Der Abbau der Inhaltsmoderation durch den neuen Eigentümer im Namen der Förderung der Meinungsfreiheit hat zu einem Anstieg rassistischer und antisemitischer Äußerungen geführt, was dazu führte, dass Werbetreibende X scharenweise verließen.

Nach Einstellungsboom während der COVID-19-Pandemie haben auch andere Social-Media-Unternehmen Massenentlassungen vorgenommen, wobei einige von ihnen ihre „Trust and Safety“-Teams reduziert haben – die Leute, die Inhaltsrichtlinien erstellen und durchsetzen. 

Für die Wahl 2020 baute Meta eine 300-köpfige Einheit auf, die sich der Wahlintegrität widmete. Doch trotz des Chaos, das ausbrach, als Trump-Anhänger am 6. Januar 2021 das Kapitol stürmten, hat das Unternehmen die Größe dieses Teams anschließend auf etwa 60 Personen reduziert und die regelmäßigen Treffen zwischen den Leitern der Gruppe und CEO Mark Zuckerberg beendet. Meta-Mitarbeiter sagten uns, dass einige ehemalige Teammitglieder, die neue Aufgaben haben, immer noch zu den Bemühungen zur Wahlintegrität beitragen und dass die Unternehmensleitung über diese Arbeit auf dem Laufenden gehalten wird. Aber die Signale sind eindeutig gemischt.

Meta finanziert nach wie vor eine branchenführende Koalition von mehr als 90 externen Faktenprüfungsorganisationen, die der Plattform hilft, falsche Inhalte herunterzuspielen und zu kennzeichnen. Das Unternehmen wehrt sich jedoch weiterhin dagegen, dass seine Aussagen überprüft werden. YouTube hingegen hat eine Politik eingeführt, unter der es zuvor Zehntausende von Videos entfernt hatte, in denen fälschlicherweise behauptet wurde, die Wahl 2020 sei unrechtmäßig gewesen. Beide Unternehmen argumentieren, dass ihre neuen Ansätze die freie Meinungsäußerung fördern.

Meta hat außerdem erklärt, dass es im Zuge desselben Ziels, eine freie Debatte zu fördern, politische Anzeigen auf Facebook und Instagram zulassen wird, in denen die Legitimität der Präsidentschaftswahl 2020 in Frage gestellt wird. Tatsächlich erlaubte Facebook im August 2023 dem Trump-Wahlkampf, einen Spot mit der Aussage zu schalten: „Wir hatten 2020 eine manipulierte Wahl.“

TikTok, das mittlerweile weltweit über 1 Milliarde durchschnittliche monatliche Nutzer und allein in den USA mehr als 170 Millionen Nutzer hat, stellt neue und ganz andere Herausforderungen dar. Die Verbindung zum chinesischen Mutterkonzern ByteDance hat zu – bisher unbewiesenen – Spekulationen geführt, dass die autokratische Regierung in Peking Einfluss auf die US-Plattform ausübt. Das Repräsentantenhaus hat gerade ein Gesetz verabschiedet, das ByteDance zwingen würde, TikTok zu verkaufen oder ein Verbot der Kurzvideo-App in den USA zu riskieren.

Es gibt aber auch Fragen zum Empfehlungsalgorithmus von TikTok, der die Inhalte auswählt, die den Nutzern präsentiert werden. Andere große Plattformen verlassen sich auf ein „soziales Diagramm“, das Inhalte auf der Grundlage dessen auswählt, was von den Personen geteilt wird, denen sie folgen und die ihnen folgen. TikTok hingegen wählt kurze Videos für seine „Für dich“-Seite basierend auf algorithmischen Empfehlungen von Inhalten aus, die außerhalb des sozialen Netzwerks liegen. Dieser Unterschied könnte erklären, warum TikTok so erfolgreich darin ist, Videos bereitzustellen, die Nutzer neuartig und fesselnd finden.

Die Unterscheidung könnte jedoch während der Wahlsaison eine Gefahr darstellen, so die Ergebnisse einer Studie des Center for Social Media and Politics der NYU: „Da generierte KI es einfacher macht, gefälschte Videos zu produzieren“, schrieben die Forscher im Januar, „könnten wir sehen, dass politische Fehlinformationen auf TikTok Nutzer erreichen, die sie auf anderen sozialgraphbasierten Plattformen nicht erreichen würden.“ Darüber hinaus sind TikTok-Nutzer jünger, und zeigen, dass junge Menschen eher Fehlinformationen glauben. TikTok teilte uns mit, dass diese Analyse „völlig spekulativ“ sei und „ein schlechtes Verständnis der Funktionsweise unserer Plattform“ widerspiegele.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen. 

Für die Plattformen ist noch Zeit, Vorsichtsmaßnahmen vor der Wahl zu treffen. Sie können die Weitergabe von Inhalten einschränken