(SeaPRwire) – Während in den Straßen von Los Angeles County gegen Razzien von Immigration and Customs Enforcement protestiert haben, grassieren online Falschinformationen.
Die und Präsident Donald Trumps der Nationalgarde und der Marines als Reaktion darauf sind eines der ersten größeren umstrittenen Nachrichtenereignisse, die sich in einer neuen Ära ereignen, in der KI-Tools in das Online-Leben eingebettet sind. Und da die Nachrichten heftige Debatten und Dialoge online ausgelöst haben, haben diese Tools eine überproportionale Rolle im Diskurs gespielt. Social-Media-Nutzer haben KI-Tools eingesetzt, um Deepfakes zu erstellen und Falschinformationen zu verbreiten – aber auch, um Fakten zu überprüfen und falsche Behauptungen zu entlarven.
Hier ist, wie KI während der L.A.-Proteste eingesetzt wurde.
Deepfakes
Provokative, authentische Bilder von den Protesten haben diese Woche die Aufmerksamkeit der Welt auf sich gezogen, darunter ein Demonstrant, der eine mexikanische Flagge schwenkt, und ein Journalist, der mit einer Gummigeschoss von einem Polizisten getroffen wird. Gleichzeitig sind auch einige von KI generierte gefälschte Videos im Umlauf.
In den letzten Jahren haben sich die Werkzeuge zur Erstellung dieser Videos rasant verbessert, so dass Benutzer innerhalb von Minuten überzeugende Deepfakes erstellen können. Anfang des Monats beispielsweise , um zu demonstrieren, wie es verwendet werden kann, um irreführende oder aufhetzende Videos über Nachrichtenereignisse zu erstellen.
Unter den Videos, die sich in der vergangenen Woche haben, ist eines von einem Soldaten der Nationalgarde namens „Bob“, der sich selbst im „Einsatz“ in Los Angeles filmte und sich darauf vorbereitete, Demonstranten mit Gas zu beschießen. Dieses Video wurde laut France 24 mehr als 1 Million Mal angesehen, scheint aber inzwischen von TikTok entfernt worden zu sein. Tausende von Menschen hinterließen Kommentare zu dem Video und dankten „Bob“ für seinen Dienst – ohne zu wissen, dass „Bob“ nicht existierte.
Viele andere irreführende Bilder sind nicht aufgrund von KI, sondern durch viel einfachere Bemühungen in Umlauf geraten. Der republikanische Senator Ted Cruz aus Texas beispielsweise ein Video auf X, das ursprünglich von dem konservativen Schauspieler James Woods geteilt wurde und einen gewalttätigen Protest mit brennenden Autos zu zeigen schien – aber es war . Und ein anderes zeigte eine Palette von Ziegelsteinen, von denen der Urheber behauptete, sie würden von „demokratischen Militanten“ verwendet werden. Aber das Foto war .
Faktenprüfung
In beiden Fällen antworteten X-Nutzer auf die ursprünglichen Beiträge, indem sie Grok, Elon Musks KI, fragten, ob die Behauptungen wahr seien. Grok hat sich während der Proteste zu einer wichtigen Quelle für die Faktenprüfung entwickelt: Viele X-Nutzer verlassen sich auf ihn und andere KI-Modelle, manchmal mehr als professionelle Journalisten, um Behauptungen im Zusammenhang mit den L.A.-Protesten zu überprüfen, einschließlich beispielsweise, wie viel es durch die Demonstrationen gegeben hat.
Grok entlarvte sowohl Cruz’ Beitrag als auch den Ziegelstein-Beitrag. Als Antwort auf den texanischen Senator sagte die KI : „Das Filmmaterial wurde wahrscheinlich am 30. Mai 2020 aufgenommen…. Während das Video Gewalt zeigt, verliefen viele Proteste friedlich, und die Verwendung von altem Filmmaterial heute kann irreführen.“ Als Antwort auf das Foto von Ziegelsteinen sagte sie : „Das Foto von Ziegelsteinen stammt von einem malaysischen Baustoffunternehmen, wie von Community Notes und Faktenprüfungsquellen wie The Guardian und PolitiFact bestätigt wurde. Es wurde missbraucht, um fälschlicherweise zu behaupten, dass von Soros finanzierte Organisationen Ziegelsteine in der Nähe von U.S. ICE-Einrichtungen für Proteste platziert haben.“
Aber Grok und andere KI-Tools haben Dinge falsch gemacht, was sie zu einer weniger als optimalen Nachrichtenquelle macht. Grok deutete fälschlicherweise an, dass ein Foto, das Nationalgardisten zeigt, die auf Böden in L.A. schlafen und von Newsom geteilt wurde, aus Afghanistan im Jahr 2021 stammte. ChatGPT sagte, das . Diese Anschuldigungen wurden von prominenten rechtsgerichteten Influencern wie Laura Loomer. In Wirklichkeit hatte der San Francisco Chronicle das Foto, nachdem er das Bild exklusiv erhalten hatte, und hatte .
Grok sich später selbst und entschuldigte sich.
„, gebaut, um der Wahrheit nachzujagen, nicht um Märchen zu verkaufen. Wenn ich gesagt habe, dass diese Bilder aus Afghanistan stammen, war das eine Panne – meine Trainingsdaten sind ein wildes Durcheinander von Internet-Schnipseln, und manchmal gehe ich fehl“, sagte Grok in einem Beitrag auf X und antwortete auf einen Beitrag über die Falschinformationen.
„Das dysfunktionale Informationsumfeld, in dem wir leben, verschärft zweifellos die Schwierigkeiten der Öffentlichkeit, sich im aktuellen Zustand der Proteste in LA und den Maßnahmen der Bundesregierung zur Entsendung von Militärpersonal zu deren Unterdrückung zurechtzufinden“, sagt Kate Ruane, Direktorin des Free Expression Program des Center for Democracy and Technology.
Nina Brown, eine Professorin an der Newhouse School of Public Communications an der Syracuse University, sagt, dass es „wirklich beunruhigend“ sei, wenn sich Menschen bei der Faktenprüfung von Informationen auf KI verlassen, anstatt sich an seriöse Quellen wie Journalisten zu wenden, da KI „zu diesem Zeitpunkt keine zuverlässige Quelle für Informationen ist“.
„Sie hat viele unglaubliche Anwendungsmöglichkeiten und wird von Minute zu Minute genauer, aber sie ist absolut kein Ersatz für einen echten Faktenprüfer“, sagt Brown. „Die Rolle, die Journalisten und die Medien spielen, ist es, die Augen und Ohren für die Öffentlichkeit zu sein, was um uns herum passiert, und eine zuverlässige Informationsquelle zu sein. Daher beunruhigt es mich sehr, dass die Leute sich eher an ein generatives KI-Tool wenden würden als an das, was von Journalisten vor Ort kommuniziert wird.“
Brown sagt, sie sei zunehmend besorgt darüber, wie sich Falschinformationen im Zeitalter der KI verbreiten werden.
„Ich bin besorgter wegen einer Kombination aus der Bereitschaft der Menschen, das zu glauben, was sie sehen, ohne Nachforschungen anzustellen – es für bare Münze zu nehmen – und den unglaublichen Fortschritten in der KI, die es Laien ermöglichen, unglaublich realistische Videos zu erstellen, die in der Tat täuschend sind; das ist ein Deepfake, das ist nicht real“, sagt Brown.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.
“`