(SeaPRwire) – Im Laufe des Jahres 2025 haben sich Deepfakes dramatisch verbessert. Künstliche Intelligenz-generierte Gesichter, Stimmen und Ganzkörperdarstellungen, die echte Menschen imitieren, haben an Qualität gewonnen, weit über das hinaus, was selbst viele Experten vor wenigen Jahren für möglich gehalten hätten. Sie wurden auch zunehmend eingesetzt, um Menschen zu täuschen.
In vielen alltäglichen Szenarien – insbesondere bei Videotelefonaten mit niedriger Auflösung und Medien, die auf Social-Media-Plattformen geteilt werden – ist ihre Realität nun so hoch, dass sie nicht-experten Betrachtern zuverlässig den Plan geben können. In der Praxis sind synthetische Medien für normale Menschen und in einigen Fällen sogar für Institutionen nicht mehr von authentischen Aufnahmen zu unterscheiden.
Und dieser Anstieg beschränkt sich nicht auf die Qualität. Die Anzahl der Deepfakes hat sich explosionsartig erhöht: Ein Cybersicherheitsunternehmen schätzt, dass die Anzahl der Online-Deepfakes von etwa 500.000 im Jahr 2023 auf etwa 8 Millionen im Jahr 2025 gestiegen ist, was einem jährlichen Wachstum von fast 900 % entspricht.
Ich bin ein Informatiker, der … und andere synthetische Medien erforscht. Aus meiner Perspektive wird die Situation 2026 noch kritischer, wenn Deepfakes zu synthetischen Darstellern werden, die in Echtzeit auf Menschen reagieren können. https://www.youtube.com/embed/2DhHxitgzX0?wmode=transparent&start=0 Fast jeder kann heute ein Deepfake-Video erstellen.
Dramatische Verbesserungen
Mehrere technische Veränderungen liegen dieser dramatischen Eskalation zugrunde. Erstens hat die Videorealität dank speziell entwickelter Videogenerationsmodelle einen deutlichen Sprung gemacht. Diese Modelle produzieren Videos mit kohärenten Bewegungen, konsistenten Identitäten der dargestellten Personen und inhaltlich sinnvollen Sequenzen von einem Bild zum nächsten. Die Modelle trennen die Informationen, die die Identität einer Person repräsentieren, von denen über die Bewegung, sodass dieselbe Bewegung … oder dieselbe Identität verschiedene Bewegungstypen haben kann.
Diese Modelle erzeugen stabile, kohärente Gesichter ohne das Flackern, das Verzerren oder die strukturellen Verzerrungen um die Augen und den Kiefer, die einst zuverlässige forensische Beweise für Deepfakes waren.
Zweitens hat das Stimmenklonen die Schwelle erreicht, die ich als „Ununterscheidbarkeitsschwelle“ bezeichnen würde. Nur wenige Sekunden Audio reichen jetzt aus, um eine … zu generieren – inklusive natürlicher Intonation, Rhythmus, Betonung, Emotionen, Pausen und Atmungsgeräuschen. Diese Fähigkeit treibt bereits groß angelegte Betrugsversuche an. Einige große Einzelhändler berichten, dass sie täglich … erhalten. Die Merkmale, die einst synthetische Stimmen verraten haben, sind größtenteils verschwunden.
Drittens haben Verbrauchertools die technischen Barrieren fast auf Null gesenkt. Upgrades von OpenAI’s … und Google’s … sowie eine Welle von Start-ups bedeuten, dass jeder eine Idee beschreiben kann, ein großes Sprachmodell wie OpenAI’s ChatGPT oder Google’s Gemini ein Drehbuch erstellen lassen kann und … Künstliche Intelligenz-Agenten können den gesamten Prozess automatisieren. Die Fähigkeit, kohärente, erzählungsgetriebene Deepfakes in großem Maßstab zu generieren, ist effektiv demokratisiert worden.
Diese Kombination aus steigender Anzahl und Personas, die fast nicht von echten Menschen zu unterscheiden sind, schafft ernsthafte …, insbesondere in einer Medienumgebung, in der die Aufmerksamkeit der Menschen fragmentiert ist und der Inhalt schneller verbreitet wird, als er verifiziert werden kann. Es hat bereits reale Schäden gegeben – von … bis hin zu … und … – die durch Deepfakes ermöglicht wurden, die sich verbreiteten, bevor die Menschen eine Chance hatten, zu verstehen, was passiert. https://www.youtube.com/embed/syNN38cu3Vw?wmode=transparent&start=0 Der KI-Forscher Hany Farid erklärt, wie Deepfakes funktionieren und wie gut sie werden.
Die Zukunft liegt in Echtzeit
Wenn wir in die Zukunft blicken, ist die Richtung für das nächste Jahr klar: Deepfakes entwickeln sich hin zu Echtzeitsynthese, die Videos produzieren kann, die den Feinheiten des menschlichen Aussehens sehr ähnlich sind, was es ihnen einfacher macht, Detektionssysteme zu umgehen. Die Grenze verschiebt sich von statischer visueller Realität hin zu zeitlicher und Verhaltens-Kohärenz: Modelle, die … anstatt vorgefertigte Clips.
Die Identitätsmodellierung konvergiert zu einheitlichen Systemen, die nicht nur feststellen, wie eine Person aussieht, sondern auch, wie sie … Das Ergebnis geht über „dieses sieht wie Person X aus“ hinaus hin zu „dieses verhält sich über die Zeit wie Person X“. Ich erwarte, dass ganze Teilnehmer an Videotelefonaten in Echtzeit synthetisiert werden; interaktive, von Künstlicher Intelligenz gesteuerte Schauspieler, deren Gesichter, Stimmen und Manieren sofort auf eine Eingabe reagieren; und Betrüger, die reaktive Avatare anstelle von festen Videos einsetzen.
Wenn diese Fähigkeiten reifer werden, wird die Wahrnehmungslücke zwischen synthetischen und authentischen menschlichen Medien weiter schmaler werden. Die wirksame Verteidigungslinie wird sich von der menschlichen Urteilsfähigkeit weg verlagern. Stattdessen wird es auf Infrastruktur-Level-Schutzmaßnahmen ankommen. Dazu gehören sichere Herkunftnachweise, wie z. B. kryptographisch signierte Medien, und KI-Inhaltstools, die die … Spezifikationen verwenden. Es wird auch auf multimodale forensische Tools wie das meiner Laboratories ankommen.
Einfach nur genauer auf die Pixel zu schauen, wird nicht mehr ausreichen.
…, Professor für Informatik und Ingenieurwesen; Direktor des UB Media Forensic Lab, …
Dieser Artikel wird unter einer Creative Commons-Lizenz von … wiederveröffentlicht. Lesen Sie die …
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.
![]()