Die großen Risiken von KI in einem Wahljahr

Präsident Biden spricht über Kostensenkungen

(SeaPRwire) –   Sitzen Sie eine Briefwahlkampagne aus, die Präsident Joe Biden während der Präsidentschaftsvorwahlen des Staates unterstützt. Eine von KI generierte Stimme in der Leitung entsprach der unheimlichen Kadenz und dem charakteristischen Slogan („Malarkey!“), die für Biden charakteristisch sind. Von diesem Aufruf an vorstellen eine Kaskade von Katastrophen unter Bidens Aufsicht bis hin zu KI-Deepfakes über eine Überlegung über Wahlmanipulationen und steigende Bierpreise, KI hinterlässt weltweit ihre Spuren bei Wahlen. Vor diesem Hintergrund ergreifen Regierungen und mehrere Technologieunternehmen einige Schritte, um Risiken abzuschwächen – europäische Gesetzgeber haben gerade ein Grundsatzgesetz verabschiedet, und noch im letzten Monat haben Technologieunternehmen auf der Münchner Sicherheitskonferenz ein Abkommen unterzeichnet. Doch es muss noch viel mehr getan werden, um die amerikanische Demokratie zu schützen.

In München kündigten Unternehmen wie OpenAI, Apple, Meta, Microsoft, TikTok, Google, X und andere ein Abkommen an, Maßnahmen zum Schutz von Wahlen zu ergreifen, wenn die USA und andere Länder 2024 an die Wahlurnen gehen. Die Unternehmen helfen dem Publikum, den Ursprung von KI-generierten und authentischen Inhalten zu verfolgen, zu versuchen, trügerische KI-Medien bei Wahlen zu erkennen und „angemessene Vorsichtsmaßnahmen“ zu treffen, um Risiken durch KI-gestützte Wahltricks einzudämmen. Obwohl nicht unwillkommen, hängt der Erfolg des Pakts davon ab, wie seine Verpflichtungen umgesetzt werden. Sie wurden in glitschiger Sprache formuliert – „proportionale Reaktionen“, „gegebenenfalls und technisch machbar“, „versuchen“ und so weiter –, die den Unternehmen viel Spielraum geben, nur sehr wenig zu tun, wenn sie dies wünschen. Einige unternehmen natürlich weitere Schritte, die Dringlichkeit der Situation erfordert jedoch stärkere und allgemeinere Maßnahmen.

Dieses Jahr ist die erste nationale amerikanische Wahl seitdem KI-Entwicklungen Betrügern ermöglichen werden, gefälschte, aber fast perfekte Bilder, Videos oder Audios von Kandidaten und Amtsträgern herzustellen, die fast alles mit minimalem Zeitaufwand, geringen oder keinen Kosten und auf breiter Basis tun oder sagen. Und die der generativen KI-Chatbots zugrunde liegende Technologie ermöglicht es Schwindlern, Wahl-Websites vorzutäuschen oder binnen Sekunden Scheinnachrichtenseiten in großem Umfang zu erstellen. Es gibt auch bösen Akteuren – im In- und Ausland – die Möglichkeit, überladene, schwer nachvollziehbare interaktive Einflussnahmen durchzuführen.

Da generative KI in gängige Suchmaschinen integriert wird und Wähler sich mit Chatbots unterhalten, erhalten Personen, die grundlegende Informationen über Wahlen suchen, mit Fehlinformationen, reinem Unsinn oder Links zu Fringe-Websites. Eine aktuelle Studie von AI Democracy Projects und Proof News ergab, dass beliebte KI-Tools – darunter Googles Gemini, OpenAIs GPT-4 und Metas Llama 2 – „“ bei bestimmten Wahlfragen. Die traditionellere, nicht generative KI massenhafte Herausforderungen an die Wahlberechtigung Tausender von Wählern, wodurch eine unrechtmäßige Säuberung der Wählerverzeichnisse und die Belastung der Wahlämter riskiert wird. Da Wahlbeamte erwägen, in ihren täglichen Aufgaben neue KI-Tools einzusetzen, riskiert das Fehlen einer sinnvollen Regulierung, den Zugang zum Wahlrecht zu gefährden, auch wenn KI Zeitersparnismöglichkeiten für unterbesetzte Büros bietet.

Vor der Münchner Konferenz hatte OpenAI, die weltweit führende generative KI-Operation, kürzlich eine angekündigt, die darauf abzielt, wahlschädigende Auswirkungen einzudämmen, wenn Amerika 2024 wählt. Dazu gehört das Verbot für Benutzer, benutzerdefinierte KI-Chatbots zu erstellen, die sich als Kandidaten ausgeben, Benutzer daran zu hindern, OpenAI-Tools einzusetzen, um Unwahrheiten darüber zu verbreiten, wann und wie gewählt werden soll, und Bildern digitale Codes zu verschlüsseln, die Beobachtern helfen, herauszufinden, ob OpenAIs Dall-E ein Bild erstellt hat, das sich in freier Wildbahn vermehrt.

Diese Maßnahmen – obwohl robuster als die einiger anderer großer KI-Unternehmen bis heute – greifen in wichtigen Punkten zu kurz und unterstreichen die Grenzen dessen, was wir in den kommenden Monaten sehen werden, wenn OpenAI und andere Technologiegiganten Gesten machen, um die in München eingegangenen Verpflichtungen einzuhalten. Erstens: Die öffentlich zugänglichen Richtlinien des Unternehmens nennen nicht mehrere zentrale falsche Narrative und Darstellungen, die frühere Wahlzyklen heimgesucht haben und in diesem Jahr wahrscheinlich in neuer Gestalt wiederbelebt werden. Beispielsweise nennen sie nicht ausdrücklich Fälschungen, die angeblich Wahlbeamte zeigen, die in die Auszählung der Stimmen eingreifen, Erfindungen unzuverlässiger oder beeinträchtigter Wahlmaschinen oder unbegründete Behauptungen, dass weit verbreiteter Wahlbetrug stattgefunden habe. (Laut Brennan Center gehören diese zu den häufigsten falschen Narrativen, die Wahlleugner bei den Zwischenwahlen 2022 verbreitet haben.) Während die OpenAI-Richtlinien, die ansprechen, wohl einige oder alle dieser Inhalte abdecken, würde die ausdrückliche Benennung dieser Kategorien als verboten von Schöpfung und Verbreitung den Benutzern mehr Klarheit und den Wählern mehr Schutz bieten. Da die Wahlverfahren – und der gelegentlich schnell behobene Wahltag-Glitch – von Landkreis zu Landkreis unterschiedlich sind, sollte das Unternehmen in den Monaten vor der Wahl über Kanäle für den Informationsaustausch zwischen lokalen Wahlbeamten und OpenAI-Mitarbeitern verfügen.

Am wichtigsten ist vielleicht, dass das Tech-Wunderkind mehr tun muss, um die Risiken der Zusammenarbeit mit Drittentwicklern – also den Unternehmen, die die OpenAI- lizenzieren – einzudämmen. Wenn ein Benutzer beispielsweise grundlegende Wahlfragen in eine Suchmaschine eines Drittanbieters eingibt, die OpenAI-Modelle kannibalisiert, werden die Antworten mit Fehlern, veralteten Fakten und anderen Pannen versehen. (WIRED berichtete im vergangenen Dezember über Microsoft Copilot und enthüllte mehrere Probleme mit der Suchmaschine, die OpenAI-Technologie verwendet – obwohl einige dieser Probleme inzwischen möglicherweise behoben wurden.) Um die Wähler in dieser Wahlsaison besser zu schützen, muss das Unternehmen strengere Anforderungen für seine Partnerschaften mit Entwicklern erstellen und durchsetzen, die OpenAI-Modelle in Suchmaschinen integrieren – oder auf jeder digitalen Plattform, auf der Wähler möglicherweise nach Informationen zum ABC des Wählens und zu Wahlen suchen. Während das in München unterzeichnete Abkommen auf absichtlich irreführende Inhalte abzielte, können Wähler auch durch KI-„Halluzinationen“ – Fabrikationen, die von den Algorithmen der Systeme ausgespuckt werden – oder andere Schluckauf, die KI-Ersteller und Dienstanbieter nicht verhindern konnten, geschädigt werden.

Aber OpenAI kann es nicht alleine schaffen. Andere Tech-Titanen müssen ihre eigenen Wahlrichtlinien für generative KI-Tools veröffentlichen, die hinter den Kulissen stattfindenden Basteleien entlarven und interne Praktiken der öffentlichen Kontrolle und Kenntnisnahme zugänglich machen. Als ersten Schritt sollten große Technologieunternehmen – darunter Apple, ByteDance, Samsung und X – den offenen Standard zum Einbetten von Inhalten mit digitalen Markern unterzeichnen, die dabei helfen, zu beweisen, dass sie über den Online-Äther hinweg KI-generiert oder authentisch sind. (Während Apple und X in München zugesagt haben, in Erwägung zu ziehen, ihren Inhalten ähnliche Signale anzuhängen, würde ein einheitlicher Standard die Erkennung und Koordination auf breiter Front verbessern.) Die Markierungen sollten außerdem schwieriger zu entfernen sein. Und Social-Media-Unternehmen müssen schnell Maßnahmen ergreifen, um Deepfakes und Bot-Accounts zu bekämpfen, die menschliche Aktivitäten nachahmen, sowie sinnvolle Kontoverifizierungsprozesse für Wahlbeamte und echte Nachrichtenorganisationen einzurichten, um Wählern zu helfen, genaue Informationen in Feeds zu finden, die mit Fehlinformationen, Imitatoren und Accounts überflutet sind, die sich als echte Nachrichten ausgeben.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen. 

Die Schritte eines Unternehmens – oder einer Handvoll Unternehmen –, um Wahlschäden zu beheben, sind zwar wichtig, reichen aber nicht aus in einer Landschaft voller ungesicherter, quelloffener KI-Modelle, in der der zugrunde liegende Code der Systeme und die