Ein forensischer Experte über Kates Fotobearbeitung – und wie Anmeldeinformationen in einer Welt zunehmender Ungewissheit Vertrauen aufbauen können

Princess of Wales Kate Middleton entschuldigt sich für die Bearbeitung eines Muttertagsfotos

(SeaPRwire) –   Als Forscher, der die letzten 25 Jahre damit verbracht hat, Techniken zur Erkennung von Fotomanipulationen zu entwickeln, bin ich daran gewöhnt, panische Anrufe von Reportern zu erhalten, die versuchen, eine aktuelle Geschichte zu bestätigen.

Dieses Mal begannen am Sonntagabend die Anrufe, E-Mails und SMS einzutreffen. Catherine, Prinzessin von Wales, wurde seit dem Weihnachtstag nicht mehr in der Öffentlichkeit gesehen. Die Bauchoperation, der sie sich im Januar unterzog, führte zu weit verbreiteten Spekulationen über ihren Aufenthaltsort und ihr Wohlergehen.

Sonntag war Muttertag in Großbritannien und der Kensington-Palast hatte . Das Bild wurde von Associated Press, Reuters, AFP und anderen Medien verbreitet. Das Bild ging dann schnell auf Social-Media-Plattformen mit zig Millionen Views, Shares und Kommentaren viral.

Aber nur wenige Stunden später hat die AP ein seltenes „Foto-Kill“ verhängt und ihre Kunden gebeten, das Bild aus ihren Systemen und Archiven zu löschen, da „bei näherer Betrachtung der Eindruck entsteht, dass die Quelle das Bild manipuliert hat.“

Das Hauptproblem schien der linke Ärmel von Prinzessin Charlotte zu sein, der deutliche Anzeichen digitaler Manipulation aufwies. Zu diesem Zeitpunkt war unklar, ob dieses offensichtliche Artefakt ein Zeichen für eine weitergehende Fotobearbeitung oder ein isoliertes Beispiel für eine geringfügige Fotobearbeitung war.

Um das herauszufinden, begann ich damit, das Bild mit einer Forensik-Software zu analysieren, die entwickelt wurde, um fotografische Bilder von vollständig KI-generierten Bildern zu unterscheiden. Diese Analyse klassifizierte das Bild selbstbewusst als nicht KI-generiert. 

Ich führte dann einige weitere traditionelle forensische Tests durch, darunter die Analyse des Beleuchtungs- und Rauschmusters des Sensors. Keiner dieser Tests ergab Beweise für eine stärkere Manipulation.

Nach all dem kam ich zu dem Schluss, dass das Foto höchstwahrscheinlich mit Photoshop oder den integrierten Bearbeitungswerkzeugen einer Kamera bearbeitet wurde. Obwohl ich mir dessen nicht 100% sicher sein kann, stimmt diese Erklärung mit der Erklärung überein, die Prinzessin Kate am Montag abgab, in der sie sagte: „Wie viele Hobbyfotografen experimentiere ich gelegentlich mit der Bearbeitung. Ich wollte mich für die Verwirrung entschuldigen, die das gestern geteilte Familienfoto verursachte.“

In einer rationalen Welt wäre dies das Ende der Geschichte. Aber die Welt – und insbesondere die sozialen Medien – sind alles andere als irrational. Ich erhalte bereits Dutzende E-Mails mit „Beweisen“ für eine üblere Fotomanipulation und KI-Generierung, die dann verwendet werden, um wild über den Gesundheitszustand von Prinzessin Kate zu spekulieren. Und während die Art von Post-hoc-Forensikanalysen, die ich durchführe, Fotoredakteuren und Journalisten helfen kann, Geschichten wie diese zu ordnen, können sie nicht unbedingt Gerüchten und Verschwörungen entgegenwirken, die sich schnell online verbreiten.

Manipulierte Bilder sind nichts Neues, selbst aus offiziellen Quellen. Beispielsweise suspendierte die Associated Press 2008 vorübergehend die Verbreitung offizieller Bilder des Pentagon durch die Agentur, nachdem sie ein der ersten Vier-Sterne-Generälin des US-Militärs veröffentlicht hatte. Das Foto von Generalin Ann E. Dunwoody war das zweite von der Army bereitgestellte Foto, das die AP in den letzten zwei Monaten bemängelt hatte. Die AP schließlich ihre Verwendung dieser offiziellen Fotos nach Zusicherungen des Pentagon, dass die Militärabteilungen an eine Anweisung des Verteidigungsministeriums erinnert werden, die Änderungen an Bildern verbietet, wenn dies die Fakten oder die Umstände eines Ereignisses falsch darstellt.

Das Problem ist natürlich, dass moderne Technologien die Veränderung von Bildern und Videos erleichtern. Und während dies oft für kreative Zwecke geschieht, kann die Veränderung problematisch sein, wenn es um Bilder von realen Ereignissen geht, da dies das Vertrauen in den Journalismus untergräbt.

Erkennungssoftware kann auf Ad-hoc-Basis nützlich sein, um problematische Bereiche eines Bildes hervorzuheben oder um festzustellen, ob ein Bild möglicherweise KI-generiert wurde. Sie hat jedoch Einschränkungen, da sie weder skalierbar noch durchweg korrekt ist – und böswillige Akteure werden der neuesten Erkennungssoftware immer einen Schritt voraus sein.

Was ist also zu tun?

Die Antwort liegt wahrscheinlich in der digitalen Herkunft – dem Verständnis des Ursprungs digitaler Dateien, seien es Bilder, Videos, Audios oder etwas anderes. Die Provenienz umfasst nicht nur die Art und Weise, wie die Dateien erstellt wurden, sondern auch, ob und wie sie während ihrer Reise von der Erstellung zur Veröffentlichung manipuliert wurden.

Die Content Authenticity Initiative wurde Ende 2019 von Adobe gegründet, das Photoshop und andere leistungsstarke Bearbeitungssoftware herstellt. Es handelt sich jetzt um eine Gemeinschaft von mehr als 2.500 führenden Medien- und Technologieunternehmen, die daran arbeiten, einen offenen technischen Standard für die Provenienz zu implementieren.

Dieser offene Standard wurde von der Coalition for Content Provenance and Authenticity (), einer Organisation, die von Adobe, Microsoft, der BBC und anderen innerhalb der Linux Foundation gegründet wurde, entwickelt. Es konzentriert sich auf den Aufbau von Ökosystemen, die die Entwicklung offener Technologien und die kommerzielle Akzeptanz beschleunigen. Der C2PA-Standard hat sich schnell als „best in class“ im Bereich der digitalen Provenienz herauskristallisiert.

C2PA entwickelte —das Äquivalent eines „Nährwertkennzeichens“ für digitale Kreationen. Durch Klicken auf das markante „cr“-Logo, das sich entweder auf oder neben einem Bild befindet, kann ein Betrachter nachvollziehen, woher das Bild (oder eine andere Datei) stammt.

Die Beglaubigungsprotokolle werden in Hardwaregeräte – Kameras und Smartphones – integriert, insbesondere damit der zukünftige Betrachter Datum, Uhrzeit und Ort eines Fotos zum Zeitpunkt der Aufnahme genau bestimmen kann. Dieselbe Technologie ist bereits Teil von Photoshop und anderen Bearbeitungsprogrammen, sodass Bearbeitungsänderungen an einer Datei protokolliert und eingesehen werden können.

Alle diese Informationen erscheinen, wenn der Betrachter auf das „cr“-Symbol klickt, und zwar in demselben klaren Format und in klarer Sprache wie ein Nährwertkennzeichen auf der Seite einer Müslipackung.

Wäre diese Technologie heute vollständig im Einsatz, hätten Nachrichtenfotoredakteure die Content Credentials des Fotos der königlichen Familie vor der Veröffentlichung überprüfen und so die Panik beim Widerruf vermeiden können.

Aus diesem Grund arbeitet die Content Authenticity Initiative auf eine weltweite Einführung von Content Credentials hin und deshalb führen Medienunternehmen wie die BBC diese Labels bereits schrittweise ein. Andere, wie AP und AFP, arbeiten daran, dies noch in diesem Jahr zu tun.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.