Bundesstaaten Rennen, um KI-Fälschungen vor der Wahl 2024 zu bekämpfen

Three voting books in a row each one is more pixelated then the last

(SeaPRwire) –   Maggie Toulouse Oliver, Secretary of State von New Mexico, war auf einer Konferenz über Wahlsicherheit im letzten Jahr, als sie hatte, was sie als “oh je, das passiert jetzt”-Moment beschreibt. Das Potenzial für von KI generierte Desinformation und Deepfakes, um diese Jahresnationale Wahlen zu stören, war das “heißeste Thema unter Wahlverwaltern” bei der Veranstaltung, sagt Toulouse Oliver, mit einem schrecklichen Szenario nach dem anderen in Gesprächen. Als ihr oberster Wahlbeamter in ihrem Bundesstaat erkannte sie, dass die Zeit knapp wurde, um die Verteidigungen von New Mexico vor dieser Jahreswahl einzurichten. “Das war wirklich mein Weckruf”, sagt sie.

Dank zum Teil dieser Erleuchtung verlangte New Mexico letzten Monat von politischen Kampagnen, immer dann eine Offenlegung vorzunehmen, wenn sie KI in ihren Anzeigen verwenden, und machte es zu einer Straftat, KI-generierte Inhalte zu verwenden, um Wähler absichtlich in die Irre zu führen. Der Fokus auf “böswillige Absicht” war entscheidend, sagt Toulouse Oliver. “Wir sind uns des ersten Verfassungszusatzes bewusst und wir wollen die Leute nicht ungerechtfertigt bestrafen”, sagt sie.

Toulouse Olivers Bemühungen sind Teil eines größeren Trends. Skeptisch, dass die Bundesregierung und soziale Medienunternehmen vor der Wahl im November bedeutende Rahmenbedingungen für KI-Inhalte einführen werden, haben staatliche und lokale Behörden schnell gehandelt, um die Sache selbst in die Hand zu nehmen. Mehr als 100 Gesetzesentwürfe wurden kürzlich in 39 Bundesstaatsgesetzgebungen eingebracht oder verabschiedet, die Bestimmungen enthalten, um das Potenzial für KI-veränderte oder -generierte Wahldesinformationen einzuschränken, so eine Analyse der Voting Rights Lab, eine Gruppe, die Wahlgesetzgebung verfolgt.

“2024 ist das erste amerikanische Präsidentschaftswahljahr am Schnittpunkt dieser erhöhten Wahlbezogenen Fehlinformationen und Desinformationen und des raschen Wachstums von KI-generierten Inhalten”, sagt Megan Bellamy, Vizepräsidentin für Recht und Politik bei Voting Rights Lab. Diese Jahreswahlen, nicht nur in den USA, sondern in der ganzen Welt, werden als Testfall für die Auswirkungen der weit verbreiteten neuen generativen KI-Tools dienen, die es nie zuvor so billig, schnell und einfach gemacht haben, in großem Umfang veränderte Inhalte zu produzieren. Angesichts einer möglichen Flut von wahlbezogener Desinformation haben die Gesetzgeber der Bundesstaaten mit verschiedenen Ansätzen gerungen, um die Wähler zu schützen oder diejenigen zu bestrafen, die diesen Inhalt erstellen und verbreiten, während sie die Redefreiheit und andere rechtliche Schutz gewährleisten. Da die Regulierung von KI-Inhalten noch am Anfang steht, sagen Experten, dass einige der Formulierungen in den neuen Gesetzen rechtlich unklar sind und schwierig durchzusetzen sein können.

“KI-generierte Inhalte… die strategisch aufgrund unserer Wahllandschaft ins Visier genommen werden, könnten immer noch erheblichen Schaden anrichten”, sagt Bellamy und merkt an, dass einige Bundesstaaten die Auswirkungen mehr spüren könnten als andere. “KI-generierte Inhalte sollen die Aufmerksamkeit der Wähler erregen, und das allein könnte selbst bei Bemühungen, den Schaden zu mildern, zu Chaos und Verwirrung führen.”

Viele dieser Gesetze, wie das von New Mexico, konzentrieren sich auf Transparenz, indem sie Offenlegungen über den Einsatz von KI in wahlbezogenen Inhalten vorschreiben. Das Parlament von Florida verabschiedete im März ein ähnliches Gesetz, das eine Erklärung in politischen Anzeigen vorschreibt, die darauf hinweist, dass sie “ganz oder teilweise unter Verwendung generativer Künstlicher Intelligenz erstellt wurden”. Dies gilt für alle Inhalte, einschließlich Audio, Video, Text, Bilder oder andere Grafiken. (Das Gesetz wartet noch auf die Unterschrift des Gouverneurs Ron DeSantis).

Viele Gesetze zielen auch darauf ab, diejenigen zu bestrafen, die KI-Werkzeuge verwenden, um absichtlich irreführende Inhalte zu verbreiten. Ein Gesetz, das von Gouverneur Tony Evers von Wisconsin letzten Monat unterzeichnet wurde, verhängt eine Geldstrafe von 1000 US-Dollar auf jede Gruppe, die mit einem politischen Wahlkampf verbunden ist und es versäumt, eine Erklärung zu KI-erzeugten oder -veränderten Inhalten hinzuzufügen, obwohl es weniger restriktiv ist, da es sich nicht mit Desinformationen befasst, die von Gruppen verbreitet werden, die nicht mit Kampagnen verbunden sind. In Arizona beraten Gesetzgeber mehrere Ansätze, darunter ein Gesetz, das Kandidaten für öffentliche Ämter erlauben würde, die Ersteller von “digitalen Persiflagen” ohne deren Zustimmung zu verklagen.

Für viele Staatsbeamte war die weit verbreitete Einführung von ChatGPT und anderen populären KI-Tools im letzten Jahr ein Weckruf für das zerstörerische Potenzial, das die Programme für die kommenden Wahlen haben könnten. “Der große Sprung nach vorn mit ChatGPT ließ die Menschen wirklich auf eine Weise darüber sprechen, wie die vielen Anwendungen von KI und welche Aspekte unseres nationalen Lebens besonders anfällig sind”, sagt Steve Simon, Secretary of State von Minnesota.

Im Frühjahr 2023 wurde Minnesota einer der ersten Bundesstaaten, die die Verwendung von KI-generierten Inhalten in Wahlmaterialien verboten. Das neue Statut verbietet die Verbreitung solcher Inhalte, wenn sie mit der Absicht erstellt wurden, einen Kandidaten innerhalb von 90 Tagen vor einer Wahl zu schaden. Es kriminalisiert auch die Verbreitung von Deepfakes ohne die Zustimmung der dargestellten Person.

“Ich bin vorsichtig optimistisch in Bezug auf unsere Fähigkeit, ihre Auswirkungen zu neutralisieren”, sagt Simon. Das neue Gesetz von Minnesota “dient nicht nur als Warnung für diejenigen, die dies verbreiten, sondern auch für die Öffentlichkeit, dass dies etwas ist, worauf es sich lohnt zu achten und worauf man achten sollte.”

Obwohl die Begriffe “Fehlinformation” und “Desinformation” seit der Wahl 2020 stark politisiert wurden und viele konservative Gesetzgeber reflexartig Gesetzgebung ablehnen, die die Verbreitung falscher Informationen im Zusammenhang mit Wahlen eindämmen will, sagen Staatsbeamte, dass Gesetze in Bezug auf KI-generierte Inhalte überwiegend parteiübergreifende Unterstützung gefunden haben. “Sehr interessanterweise gab es kaum Widerstand gegen die Gesetzgebung”, sagt Simon.

Trotz der Flut neuer Gesetze sagen die Staatsbeamten, dass sie wissen, dass diese Bemühungen nur ein Tropfen auf den heißen Stein sind. Es kann nur wenige Klicks kosten, um KI-generierte Inhalte zu erstellen, die Millionen erreichen, und Tage oder Wochen dauern, sie zu überprüfen und aufzuspüren. Viele Beamte sagen, dass sie parallel zu den gesetzgeberischen Bemühungen erhebliche Ressourcen in Aufklärungskampagnen investiert haben, die darauf abzielen, das Misstrauen und die Widerstandsfähigkeit der Wähler gegenüber manipulierten Inhalten zu erhöhen und genaue Informationen über den Wahlprozess sichtbar zu machen.

Steve Hobbs, Secretary of State von Washington, sagt, dass er genau beobachtet hat, wie KI-generierte Inhalte in den letzten Jahren dramatisch verbessert haben – zuerst mit Faszination, dann mit wachsender Besorgnis. Es gab den überzeugenden, aber falschen Richard Nixon, der von MIT-Forschern ein gescheitertes Mondlandungsgeständnis ablegte, einen falschen Präsidenten Volodymyr Selenskyj, der während des Beginns von Russlands Invasion 2022 kapitulierte, und kürzlich einen falschen Präsidenten Joe Biden, der den Wählern von New Hampshire sagte, sie sollten nicht an den Vorwahlen teilnehmen.

“Ich habe auf die Bundesregierung geschaut und dachte: ‘Mann, ich hoffe wirklich, sie tun etwas'”, sagt Hobbs. “Aber sie haben es nicht getan. Deshalb haben wir es auf Landesebene gemacht.” Es dauerte zwei Jahre, aber im Mai letzten Jahres verabschiedete das Parlament von Washington ein Gesetz, das Werbetreibende verpflichtet, Offenlegungen vorzunehmen, wenn wahlbezogenes Material durch KI erstellt oder verändert wurde, und es ermöglicht Kandidaten, die durch KI-veränderte Inhalte ins Visier genommen wurden, Schadenersatz zu fordern. Hobbs sieht es als kleinen, aber notwendigen Schritt, merkt aber an, dass das Gesetz wenig zum Schutz vor Wahlmanipulation durch staatliche Akteure oder ausländische Einheiten tut: “Ich wollte mehr tun.”

Seine Amtskollegen stimmen überein, dass die Herausforderungen erheblich bleiben. “Ich werde nicht vorgeben, dass die Regulierung einfach sein wird, es ist ein ganz neues Gebiet”, sagt Toulouse Oliver, Secretary of State von New Mexico, und fügt hinzu, dass sie hofft, dass zumindest die neuen Maßnahmen dabei helfen werden, die schlimmsten Verletzer im Laufe der Wahlzeit aufzuspüren. “Wir befinden uns in einer neuen Welt.”

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.