Sie befinden sich im Archiv von ZU|Daily.

ZU|Daily wurde in die Hauptseite in den Newsroom unter https://www.zu.de/newsroom/daily/ integriert. Die neuesten Artikel seit August 2024 werden dort veröffentlicht. Hier finden Sie das vollständige Archiv aller älteren Artikel.

Falscher Spott mit echten Konsequenzen
NAVIGATION

Deepfakes

Falscher Spott mit echten Konsequenzen

von Dr. Martin R. Herbers | Zeppelin Universität
12.07.2022
Erst, wenn wir gesellschaftliche und individuelle Kompetenzen schaffen, mit Deepfakes produktiv umzugehen, können wir das mit ihnen verbundene potenzielle Misstrauen überwinden.

Dr. Martin R. Herbers
Akademischer Mitarbeiter im Fachbereich Kulturwissenschaften und Kommunikationswissenschaften
 
  •  
    Zur Person
    Dr. Martin R. Herbers

    Dr. Martin R. Herbers ist seit September 2012 Postdoc im Fachbereich Kultur- und Kommunikationswissenschaft. Er ist seit Juni 2019 Fellow im Projekt „netPOL – Internationales und interuniversitäres Netzwerk Politische Kommunikation“ und leitet seit Juni 2020 das Projekt „Nachhaltigkeit – Wen interessiert’s?“ Ebenso leitet er seit März 2020 das Zentrum für Politische Kommunikation. Zu seinen Forschungsinteressen zählen die Transformation der politischen Öffentlichkeit durch Digitalisierung und Unterhaltung und die Kommunikation von Nachhaltigkeitsthemen in Theorie und Empirie.

  •  
    Mehr ZU|Daily
    Alles muss raus!
    Tech-Milliardär und Tesla-Chef Elon Musk will Twitter kaufen. Wie es sich für ein von sich selbst überzeugtes Genie gehört, sieht Musk sich als Retter der Meinungsfreiheit. Doch seine Vorstellungen von freier Meinungsäußerung sind naiv und romantisch, meint Dr. Martin R. Herbers.
    Mein Avatar und ich
    Plattformen, auf denen mittels Virtual-Reality-Headset Kontakte virtuell erlebt werden können, haben in der Pandemie Hochkonjunktur. Doch wie baut man soziale Realität überhaupt nach und wie wird sie wahrgenommen? Diese Fragen behandelte ZU-Wissenschaftler Felix Krell in seinem Vortrag zum Thema „Einführung in Soziale Virtuelle Realität“.
    Einseitig und verzerrend
    Nur wenige Menschen haben direkten Kontakt mit Geflüchteten. Oftmals werden sie aber in Medien mit stereotypen visuellen Darstellungen von Flüchtlingen konfrontiert. Deren Wirkung hat ZU-Alumnus Joseph Oertel untersucht.
  •  
     
    Hä...?
    Haben Sie Fragen zum Beitrag? Haben Sie Anregungen, die Berücksichtigung finden sollten?
    Hier haben Sie die Möglichkeit, sich an die Redaktion und die Forschenden im Beitrag zu wenden.
  •  
    Teilen

Tatsächlich ist es in der aktuellen Zeit nicht unwahrscheinlich, dass sich Vitali Klitschko als Bürgermeister der ukrainischen Hauptstadt Kiew mit seinen Amtskolleg:innen per Videokonferenz austauschen möchte. Ganz geheuer kam den Politiker:innen der Anruf dann doch nicht vor. Zwar sah der Gesprächspartner auf dem Monitor so aus wie Vitali Klitschko, stellte aber auch verfängliche Fragen, etwa zum Verhalten ukrainischer Geflüchteter in Deutschland. Er sprach – trotz seiner exzellenten Deutschkenntnisse – Russisch und wurde von einem Dolmetscher übersetzt. All dies führte im Falle von Franziska Giffey zu einem vorzeitigen Gesprächsabbruch.


Die Skepsis sollte sich bestätigen: Mittlerweile zeigt sich das russische Satiriker-Duo „Vovan und Lexus“ für die Anrufe verantwortlich. Das eng entlang der russischen Propagandalinie arbeitende Duo wollte den Gesprächspartner:innen entsprechende pro-russische und anti-ukrainische Statements entlocken, um sie als kommunikative Waffe in Putins Desinformationskrieg zu verwenden. Der Einsatz dieser computergenerierten, täuschend echt aussehenden Deepfakes, etwa von Vitali Klitschko zielt – so die Journalistin Nina Schick – darauf ab, Misstrauen zu schaffen und letztlich Zweifel über eine gemeinsam geteilte politisch-demokratische Wirklichkeit auszulösen.


Medienwissenschaftlich gesehen sind Deepfakes sogenannte „synthetische Medien“. Dies umfasst Bilder, Töne und Animationen, die komplett durch künstliche Intelligenz hergestellt werden. So können etwa täuschend echte Gesichter oder auch Stimmen von Menschen produziert und verbreitet werden. Entscheidend ist, dass sie in böser Absicht verwendet werden, nämlich um zu täuschen oder zu schaden. Das Ziel des Einsatzes von Deepfakes ist es, Verwirrung und Misstrauen zu stiften.


Zum einen werden die eigenen Sinne in Frage gestellt. Bilder und Töne bilden die Grundlage der menschlichen Wahrnehmung und das, was wir mit eigenen Augen sehen, wirkt für uns authentisch und wahr. Eine Täuschung erschüttert – mehr oder weniger stark – den Glauben an die eigenen Sinne. Zum anderen wird auf einer gesellschaftlichen Ebene Verwirrung gestiftet: Die Soziologen Peter Berger und Thomas Luckmann gehen von einer gemeinsam geteilten Wirklichkeit aus, der sich Menschen anschließen, um gemeinsam handeln zu können und das Zusammenleben organisieren zu können. Wenn nicht mehr einzuschätzen ist, ob unser Gegenüber tatsächlich die Person ist, für die sie sich ausgibt, dann entsteht Unsicherheit über die Wirklichkeit. Schließlich vertrauen wir auch darauf, dass die Wirklichkeit eben ein soziales Produkt ist – und nicht künstlich zu bösartigen Zwecken hergestellt wird.


Mit Blick auf die politisch-demokratische Kommunikation muss also kein Zweifel darüber herrschen, dass es eine gemeinsam geteilte Wirklichkeit gibt, in der entsprechende Probleme kollektiv verbindlich gelöst werden können. Dies setzt auf der Seite der individuellen Akteur:innen ebenfalls Vertrauen voraus – und sei es nur, dass das Gegenüber auch tatsächlich diejenige Person ist, für die sie sich ausgibt. Der gefälschte Politiker Klitschko wirkt individuell wie gesellschaftlich erschütternd.


Dabei ist ein Deepfake gegenwärtig relativ einfach herzustellen. Ursprünglich löste die Technologie ein Problem der Forschung zur künstlichen Intelligenz: Entsprechender Software war es leicht möglich, menschliche Gesichter zu erkennen. Die Aufgabe, ein überzeugendes Bild eines menschlichen Gesichts herzustellen, blieb aber lange ungelöst – die so generierten Bilder wirkten eben künstlich und nicht authentisch-menschlich.

Ist das wirklich der echte Vitali Klitschko? Die Redaktion geht zumindest davon aus, schließlich wurde dieses Bild von der ukrainischen Regierung veröffentlicht. Doch mehreren Bürgermeistern großer europäische Städte ging das anders. Sie hatten sich mit Klitschko, dem Bürgermeister der ukrainischen Hauptstadt Kiew, zum Telefonat per Videoschalte verabredet, und waren auf einen manipulierten Anruf reingefallen. Die beiden russischen Komiker, die sich zu den Fake-Videoschalten bekannten, arbeiten nach eigener Aussage für eine Internetplattform, die dem russischen Staatskonzern Gazprom gehört. Berlins Regierende Bürgermeisterin Franziska Giffey von der SPD hatte in der letzten Juniwoche per Video mit einer Person gesprochen, die zwar wie der Kiewer Bürgermeister Vitali Klitschko aussah, aber nicht Klitschko war. Nach einiger Zeit waren ihr wegen verschiedener Fragen ihres Gegenübers Zweifel gekommen. Das Gespräch endete vorzeitig. Anschließend wurde bekannt, dass auch die Bürgermeister von Wien, Madrid, Budapest und Warschau auf ähnliche Weise hereingelegt wurden.
Ist das wirklich der echte Vitali Klitschko? Die Redaktion geht zumindest davon aus, schließlich wurde dieses Bild von der ukrainischen Regierung veröffentlicht. Doch mehreren Bürgermeistern großer europäische Städte ging das anders. Sie hatten sich mit Klitschko, dem Bürgermeister der ukrainischen Hauptstadt Kiew, zum Telefonat per Videoschalte verabredet, und waren auf einen manipulierten Anruf reingefallen. Die beiden russischen Komiker, die sich zu den Fake-Videoschalten bekannten, arbeiten nach eigener Aussage für eine Internetplattform, die dem russischen Staatskonzern Gazprom gehört. Berlins Regierende Bürgermeisterin Franziska Giffey von der SPD hatte in der letzten Juniwoche per Video mit einer Person gesprochen, die zwar wie der Kiewer Bürgermeister Vitali Klitschko aussah, aber nicht Klitschko war. Nach einiger Zeit waren ihr wegen verschiedener Fragen ihres Gegenübers Zweifel gekommen. Das Gespräch endete vorzeitig. Anschließend wurde bekannt, dass auch die Bürgermeister von Wien, Madrid, Budapest und Warschau auf ähnliche Weise hereingelegt wurden.

Gelöst wurde das Problem durch eine Verkoppelung der Bildproduktion mit einer weiteren Software zur Bilderkennung. Diese bewertet das hergestellte Bild auf dessen Authentizität und meldet zurück, welche Eigenschaften des Bildes zur Erhöhung der Authentizität verändert werden müssen – solange, bis das Ergebnis überzeugt. Waren hierzu in den Anfängen dieser Entwicklung noch große Mengen an Trainingsmaterial – also Bilder von menschlichen Gesichtern – nötig, so werden gegenwärtig nur noch wenige Bilder aus Ausgangspunkt benötigt. Diese sind im Falle von Vitali Klitschko im Übermaß im Internet zu finden – ebenso wie Fernsehinterviews, mit deren Hilfe auch seine Stimme einfach imitiert werden kann.


Obgleich die Authentizität eines Bildes durch entsprechende technische Verfahren erhöht werden kann, wird sie immer auch durch Menschen zugeschrieben. Ein technisch noch so perfekter Deepfake kann auf Basis seines Verhaltens oder seiner Aussagen wie im Falle von Franziska Giffey Skepsis hervorrufen. In der Forschung zur Mensch-Maschine-Interaktion wird der Zusammenhang zwischen einer perfekten technischen Simulation und der menschlichen Akzeptanz beschrieben. Hier zeigt sich, dass nicht-perfekte Simulationen eher angenommen werden – schließlich sind auch alle menschlichen Gesichter nicht perfekt. In dem von Masahiro Mori beschriebenen „uncanny valley“ („Gruselgraben“) liegen dann all jene Simulationen, die bei den Betrachter:innen eher Unbehagen als Authentizitätsgefühle auslösen.


Die Perfektion liegt also in der Imperfektion, wie auch der sogenannte Turing-Test aufzeigt: Der vom Informatiker Alan Turing erdachte Test soll helfen, sprachlich vermittelte Kommunikation als entweder menschlich-authentisch oder künstlich erzeugt einzuordnen. Im jährlich vergebenen Turing-Preis konnte sich bis jetzt jedoch keine Maschine als perfekte Imitation durchsetzen.


Übertragen auf die politisch-demokratische Kommunikation bedeutet dies: Im Idealfall geht man von einer gemeinsam geteilten Wirklichkeit aus, in der kollektiv verbindliche Entscheidungen getroffen werden. Wäre dem aber wirklich so, bräuchte es keine Parteien und andere Formen der politischen Interessenvertretungen mehr – diese bieten immer auch Wirklichkeitsentwürfe an, die mit anderen Wirklichkeitsentwürfen konkurrieren, ohne den eigentlichen Prozess der Wirklichkeitskonstruktion anzuzweifeln. Neben den verschiedenen Wirklichkeitsentwürfen aus dem politischen System treten derzeit neben die technischen auch satirische Wirklichkeitsentwürfe, die diese Konstruktionsleistung grundlegend in Frage stellen.

Der Diskussion um den gefälschten Klitschko geht ein ähnliches Beispiel voraus, das auch aus dem Bereich der Satire stammt. So kursierte im März 2015 ein Video durch die verschiedenen Kanäle des Internets, in dem der ehemalige griechische Finanzminister Yannis Varoufakis bei einem öffentlichen Vortrag zu sehen ist. Das besondere hieran ist: Während er über die Austeritätsforderungen Deutschlands gegenüber Griechenland spricht, streckt er seinen Mittelfinger aus – es folgte eine entsprechende medial-politische Empörungswelle.


Kurz darauf behauptete der Satiriker Jan Böhmermann in seiner Sendung „Neo Magzin Royale“, dieses Video manipuliert zu haben und damit aufzeigen zu wollen, wie einfach und unreflektiert mediale Empörung ausgelöst werden kann. Dies wiederum nahm Günther Jauch zum Anlass, Varoufakis in seiner Talkshow als Gast zu den Vorfällen zu befragen. Der Minister selbst gab bekannt, niemals irgendjemandem den Mittelfinger gezeigt zu haben und dass das Video eine Fälschung sei. Die Redaktion von Jauch ließ das Video prüfen und kam zu dem Schluss, dass es sich um unmanipuliertes Bildmaterial handele. Böhmermann veröffentlichte daraufhin ein Making-of seiner Produktion, in dem das umstrittene Video sowohl unmanipuliert als auch manipuliert aufgeführt wurde. Nach all diesem Verwirrspiel ist bis heute unklar, welche Variante der hier gezeigten – auch politischen – Wirklichkeit gelten soll.


Dabei ist satirische Kommunikation in ihrer grundlegenden Idee ein sozialer Schutzraum, wie der Medienwissenschaftler Siegfried J. Schmidt ausführt. Der Schutz eröffnet die Möglichkeit, die allgemein akzeptierten Wirklichkeitskonstruktionen durch die Mittel der Komik in Frage zu stellen. Dabei wird sie aber nicht ernsthaft in Frage gestellt, sondern vielmehr ihre Konstruiertheit – und damit auch ihre Veränderbarkeit – aufgezeigt. Damit dies gelingen kann, muss Satire auch als solche erkannt werden können, etwa durch Hinweise der Kommunizierenden. Die Publikumsmitglieder müssen diesen Rahmen ebenfalls erkennen können – und letztlich bis zu einem gewissen Grad auch mitspielen und die satirische Situation etwa durch Lachen wieder auflösen. Auch, um anschließend wieder „normal“ weiterzumachen.


Hierzu benötigt Satire die erkennbare Überspitzung. Ein klassisches Beispiel ist etwa der Roman „Gullivers Reisen“ von Jonathan Swift, in dem der Protagonist auf einer abenteuerlichen Weltreise mit übertriebenen Varianten der damaligen Gesellschaftsordnung konfrontiert wird. Diese Deutlichkeit und Erkennbarkeit wird in der Satire der Gegenwart, aber auch in den Deepfakes in Frage gestellt. Mit Blick auf die Satire hält die Medienwissenschaftlerin Vera Podskalsky fest, dass diese gegenwärtig kein überzeichnetes Bild der Wirklichkeit mehr aufzeigen kann. Die gemeinsam geteilte Wirklichkeit ist inhärent absurd geworden – kein satirischer Entwurf kann sie noch überspitzter darstellen, als sie es schon ist.

Ist das echt? Auch Videos können heutzutage gefälscht werden, in dem sie Gesichter imitieren und Stimmen täuschend echt nachahmen. Solche Deepfakes werden häufig zum Spaß oder zur Unterhaltung veröffentlicht. Gefährlich kann es werden, wenn sie zur Verbreitung von Desinformationen eingesetzt werden oder aber, um einzelne Personen zu diskreditieren. Mit Hilfe von Programmen, Apps und der entsprechenden Software ist jeder ohne Vorkenntnisse bereits heute in der Lage, täuschend echt wirkende Videos zu erstellen. In Echtzeit lassen sich Gesichter und Stimmen tauschen, Personen damit in einem anderen Kontext darstellen. Menschen sagen Dinge, die sie nie gesagt haben oder vollziehen Handlungen, die nie stattgefunden haben. Die Qualität von Deepfakes verbessert sich stetig, weil die Rechenleistung steigt und sich die Leistungsfähigkeit von künstlicher Intelligenz in großen Sprüngen entwickelt. Es wird zunehmend schwieriger, zwischen authentischem und künstlich erzeugtem oder verändertem Material zu unterscheiden. Auch die Bundesregierung ist in den vergangenen Jahren verstärkt auf das Thema aufmerksam geworden. Sie bearbeitet das Thema ressortübergreifend. So kümmert sich das Bundesministerium für Bildung und Forschung um die Förderung von Forschungsprojekten zur Erkennung und Bekämpfung von Desinformationen und Deepfakes – auch im Rahmen der IT-Forensik. Wissenschaftler entwickeln etwa Programme, die ebenfalls auf Basis künstlicher Intelligenz die Echtheit von Videos und Audioinhalten prüfen und so Fälschungen identifizieren.
Ist das echt? Auch Videos können heutzutage gefälscht werden, in dem sie Gesichter imitieren und Stimmen täuschend echt nachahmen. Solche Deepfakes werden häufig zum Spaß oder zur Unterhaltung veröffentlicht. Gefährlich kann es werden, wenn sie zur Verbreitung von Desinformationen eingesetzt werden oder aber, um einzelne Personen zu diskreditieren. Mit Hilfe von Programmen, Apps und der entsprechenden Software ist jeder ohne Vorkenntnisse bereits heute in der Lage, täuschend echt wirkende Videos zu erstellen. In Echtzeit lassen sich Gesichter und Stimmen tauschen, Personen damit in einem anderen Kontext darstellen. Menschen sagen Dinge, die sie nie gesagt haben oder vollziehen Handlungen, die nie stattgefunden haben. Die Qualität von Deepfakes verbessert sich stetig, weil die Rechenleistung steigt und sich die Leistungsfähigkeit von künstlicher Intelligenz in großen Sprüngen entwickelt. Es wird zunehmend schwieriger, zwischen authentischem und künstlich erzeugtem oder verändertem Material zu unterscheiden. Auch die Bundesregierung ist in den vergangenen Jahren verstärkt auf das Thema aufmerksam geworden. Sie bearbeitet das Thema ressortübergreifend. So kümmert sich das Bundesministerium für Bildung und Forschung um die Förderung von Forschungsprojekten zur Erkennung und Bekämpfung von Desinformationen und Deepfakes – auch im Rahmen der IT-Forensik. Wissenschaftler entwickeln etwa Programme, die ebenfalls auf Basis künstlicher Intelligenz die Echtheit von Videos und Audioinhalten prüfen und so Fälschungen identifizieren.

Daher kommuniziert Satire inzwischen hyperreal, in dem sie die Wirklichkeit detailliert beschreibt und dadurch deren Konstruktion aufzeigt: Die satirische Aktion um Yannis Varoufakis‘ Mittelfinger kann nur gelingen, da genau aufgezeigt wird, wie sie angeblich funktioniert. Mit der Hyperrealität ist auch ein Prozess des Weiterdrehens verbunden. Die satirische Situation kann kaum zu Ende gebracht werden, vielmehr gibt es immer Anlässe, sie fortzuführen, wie die oben skizzierte Kaskade hin zu Jauch und dessen Analysen zurück zu Böhmermann und dessen bewusstem Spiel mit der Unsicherheit. Dies muss bis heute gesellschaftlich ausgehalten werden.


Die als satirisch bezeichnete Aktion um Vitali Klitschko folgt ähnlichen Regeln: Sie ist hyperreal in der Darstellung und wird – unter anderem in diesem Beitrag – auch weitergedreht und verweigert sich so einer abschließenden Beurteilung. Was diesen Fall besonders macht, ist, dass das satirische Element nur vorgeschoben ist: Hier entsteht kein sozialer Schutzraum, in dem alle Beteiligten wissen, dass alles, was gesagt wird, unernst ist. Selbst wenn es ein Prank, also ein komisch gemeintes, grobes Hereinlegen von Unwissenden ist, fehlt die Auflösung und die Rückführung in die gemeinsam geteilte Wirklichkeit. Es ist vielmehr eine propagandistisch orientierte Desinformationstaktik, die absichtsvoll die politische Wirklichkeit stören soll, die als Gespräch unter Amtsträger:innen gerahmt war.


Die dort stattfindende Kommunikation sollte – folgt man den Ansichten von Jürgen Habermas – unter anderem wahr und wahrhaftig sein. Eine Behauptung muss den Tatsachen entsprechen und der Sprechende muss das Gesagte auch so meinen, wie es gesagt wurde – und nicht mit Täuschungsabsicht. Dass diese Geltungsansprüche auch im normalen politischen Geschäft schwer einzulösen sind – hier gibt es immer strategische Absichten –, ist geschenkt. Im Bereich der Deepfakes potenzieren sich aber diese Probleme. Und dies schadet nicht nur dem demokratischen Prozess, sondern auch der Satire als wichtigem und notwendigem gesellschaftlichen Schutzraum.

Ob Varoufakis oder Klitschko, ob nun echt oder gefälscht: Die Beispiele zeigen, dass demokratisch-politische Kommunikation äußerst störanfällig ist. Da sie aber zentral für das gesamtgesellschaftliche Leben und die damit verbundene gemeinsam geteilte Wirklichkeit ist, benötigt es Sicherungssysteme, die auch auf die neuen technischen und kommunikativen Möglichkeiten reagieren. Ein generelles Verbot oder eine strenge Regulierung der Technik schaffen hier nur in einem begrenzten Rahmen Sicherheit und fördern vielmehr Anreize, diese zu umgehen. Vielmehr sollte auf einer gesellschaftlichen Ebene ein Bewusstsein für die Technologie, ihre Potenziale und Anwendungsbereiche, aber auch ihre Limitationen herrschen.


Auch müssen im politischen Bereich Sicherungssysteme gefunden werden, die die Authentizität der Beteiligten sicherstellen. Die kommunikative Rahmung muss deutlich sein, um eine satirische Intervention zu erkennen und gegebenenfalls auch zuzulassen. Auf einer individuellen Ebene muss die Media Literacy – also der kompetente Umgang mit Medien – gestärkt werden. Satire und Deepfakes müssen auch in ihrer Hyperrealität erkannt werden können und im besten Sinne folgenlos bleiben.


Aktuell herrscht noch Zweifel darüber, ob der Deepfake um Vitali Klitschko auch ein echter Deepfake, also ein künstlich generiertes Bild, ist. So zeigt der Journalist Daniel Laufer in einem Twitter-Thread auf, dass es sich auch um einen sogenannten Cheapfake handeln könnte. Cheapfakes sind bereits vorhandene Bilder, die aus ihrem ursprünglichen Kontext genommen und in einer anderen Situation neu eingefügt werden. Auch der Cheapfake hat die Absicht, zu verwirren und Misstrauen zu stiften. Die gezeigten Bilder ähneln denen eines Interviews, das Klitschko einem ukrainischen Journalisten im April gab. Genau wie im Fall von Yannis Varoufakis bleiben die Ereignisse bislang unaufgeklärt – und die Unsicherheit muss ausgehalten werden.


Ob Cheapfake oder Deepfake ist für das hier diskutierte Problem unerheblich: Beide greifen unter dem Deckmantel der Satire das Vertrauen in den demokratischen Prozess an. Erst, wenn wir gesellschaftliche und individuelle Kompetenzen schaffen, mit Deepfakes und Satire produktiv umzugehen, können wir das mit ihnen verbundene potenzielle Misstrauen überwinden. Und dann können sogar beide Klitschko-Brüder anrufen.

Titelbild: 
| Engin Akyurt / Unsplash.com (CC0 Public Domain) | Link


Bilder im Text: 

Kmr.gov.ua (CC BY 4.0) | Link

| Denny Müller / Unsplash.com (CC0 Public Domain) | Link


Beitrag (redaktionell unverändert): Dr. Martin R. Herbers

Redaktionelle Umsetzung: Florian Gehm

nach oben
Zeit, um zu entscheiden

Diese Webseite verwendet externe Medien, wie z.B. Videos und externe Analysewerkzeuge, welche alle dazu genutzt werden können, Daten über Ihr Verhalten zu sammeln. Dabei werden auch Cookies gesetzt. Die Einwilligung zur Nutzung der Cookies & Erweiterungen können Sie jederzeit anpassen bzw. widerrufen.

Eine Erklärung zur Funktionsweise unserer Datenschutzeinstellungen und eine Übersicht zu den verwendeten Analyse-/Marketingwerkzeugen und externen Medien finden Sie in unserer Datenschutzerklärung.