Digitale PR
Negative Campaigning: Die Gefahr von Deepfakes für Politik und Unternehmen
Mit künstlicher Intelligenz (KI) sind Dinge möglich, die noch vor Kurzem undenkbar gewesen wären. So können innerhalb weniger Minuten Bild-, Video- und Audioaufnahmen erstellt werden, denen man auf den ersten Blick nicht anmerkt, dass diese nicht real sind. Dies eröffnet viele neue Möglichkeiten – leider nicht ausschließlich positive. Insbesondere die Anwendung von KI im Bereich des Negative Campaigning hat alarmierende Ausmaße angenommen und rückt damit auch in den Fokus der Unternehmenskommunikation und PR.
Generell bezieht sich Negative Campaigning auf politische oder werbliche Strategien, die das Ziel verfolgen, das Ansehen oder den Ruf eines Gegners oder Konkurrenten zu schädigen. Bisher erfolgte dies zum Beispiel durch die Verbreitung von kompromittierenden Informationen, Anschuldigungen oder Angriffen, die die öffentliche Meinung beeinflussen sollten. Seitdem dafür auch Deepfakes, also durch KI manipulierte Medieninhalte, eingesetzt werden, hat der Begriff Negative Campaigning eine neue Bedeutungsebene erreicht. Diese Technologie ermöglicht es nämlich, täuschend echte und gefälschte Inhalte zu erstellen, die Menschen in Situationen zeigen, die so nie stattgefunden haben.
Die aktuelle Lage: KI und Negative Campaigning
Ein besonders bekanntes Beispiel sorgte im März dieses Jahres für großes Aufsehen, als angebliche Bilder von Trumps Verhaftung auf sozialen Netzwerken die Runde machten. Nachdem die Bilder viral gegangen waren und von vielen Nutzer:innen für echt gehalten wurden, stellte sich heraus, dass diese von dem Journalisten Eliot Higgins mit dem KI-Bild-Programm Midjourney erstellt worden waren.
Doch auch in Deutschland kamen Deepfakes schon öfter zum Einsatz. Vor allem die AfD geriet dafür in Kritik, KI-erzeugtes Bildmaterial auf ihren Social Media-Kanälen zu verbreiten. So zum Beispiel das Bild einer Gruppe aggressiv wirkender junger Männer ausländischer Herkunft mit dem Schriftzug „Nein zu noch mehr Flüchtlingen!“, das auf dem Instagram-Kanal von Norbert Kleinwächter im März dieses Jahres veröffentlicht wurde. Ein Sprecher der AfD deklarierte diese als „Symbolbilder“ und Norbert Kleinwächter sagte selbst, dass diese eindeutig als „Karikatur erkennbar“ seien. Ob dies so eindeutig ist, bleibt fraglich.
Deepfake-Videos: Manipulationsgefahr für Politik und Wahlen
KI-generierte Bilder sind die eine Sache. Deepfake-Videos von bekannten Persönlichkeiten könnten in diesem Zusammenhang allerdings eine noch größere Gefahr darstellen, weil vielen Menschen noch nicht bewusst ist, wie ausgereift die Technik mittlerweile ist. Dazu gibt es mittlerweile kostengünstige Audio-Deepfake-Dienste, mit denen sich auf einfachem Wege eine digitale Kopie einer Stimme erstellen lässt. Dann muss nur noch ein Interview einer Person herausgesucht werden und die Lippenbewegungen mittels eines KI-Videodienstes an den neu gesprochenen Text angepasst werden.
Vor allem die Bundesaußenministerin Annalena Baerbock ist immer wieder Zielscheibe für Deepfakes. Kürzlich wurde ein Fake-Video auf TikTok veröffentlicht, in dem sie die Einführung einer Pfandflaschensteuer ankündigt. Spätestens auf dem zweiten Blick wird ersichtlich, dass das Video nicht echt ist und die Lippenbewegungen nicht immer zum Ton passen. Zudem wird im Video und in dessen Beschreibung darauf hingewiesen, dass das Interview ein Fake ist. Ohne die Kennzeichnung wären jedoch sicherlich um einiges mehr App-Nutzer:innen auf die Täuschung hereingefallen. Daran zeigt sich, dass Videos, die ursprünglich als Satire gedacht waren, schnell zur Verbreitung von Desinformation werden können.
Die Macht solcher Videos sollte dahingehend keinesfalls unterschätzt werden, vor allem in Anbetracht dessen, dass die Technologien zur Erstellung derartiger Videos stetig verbessert werden und für das ungeschulte Auge vielleicht bald nicht mehr von echten Videos zu unterscheiden sind. Schon beim US-Vorwahlkampf für die kommenden Präsidentschaftswahlen war zu sehen, wie solche Fake-Videos die politische Dynamik verändern können. Das Lager von DeSantis produzierte einen Clip mit gefälschten Bildern, auf dem Trump den Epidemiologen Anthony Fauci umarmt, was unter Republikanern nicht gut ankam. Als Reaktion darauf ließ das Team von Trump DeSantis in Frauenkleidern auftreten und zeigte ihn im Zwiegespräch mit dem Satan. Dieser Vorgeschmack gibt uns eine Ahnung davon, was uns möglicherweise auch bei den Bundestagswahlen 2025 erwartet.
Implikationen für die Unternehmenskommunikation
Neben politischen Personen kann die Verbreitung von Deepfakes auch nicht zu unterschätzende Auswirkungen für Unternehmen haben. Dies zeigte sich, als am 22. Mai 2023 ein Twitter-Account, dessen Namen an lokale US-TV-Sender erinnert, ein Bild veröffentlicht, das eine angebliche Explosion am Pentagon darstellen soll. Die Aktienindizes an der Börse gingen daraufhin kurz nach unten. Erst als sich das Bild als Deepfake herausstellte, normalisierte sich der Aktienkurs wieder. Damit wird klar, wie schnell sich Negative Campaigning auch auf Unternehmen auswirken kann. Die Unternehmenskommunikationsabteilung muss sich zukünftig auf derartige Gefahren vorbereiten.
Denkbar sind in diesem Zusammenhang Fake-Videos, in denen eine Führungsperson eines Unternehmens fragwürdige (also manipulierte) Aussagen tätigt und somit die Glaubwürdigkeit des Unternehmens in der Öffentlichkeit nachhaltig schädigt. Auch wenn sich dies im ersten Moment unrealistisch anhört, sind dafür einige Motive denkbar. So könnte ein:e Ex-Angestellte:r oder ein:e Konkurrent:in, der:die sich dadurch einen Vorteil verschaffen möchte, zu solchen Mitteln greifen.
In Anbetracht der Tatsache, dass heutzutage praktisch jede Person Deepfakes erstellen kann und dadurch enorme Reputationsschäden verursachen kann, ist es für Unternehmen unerlässlich, bereits im Vorfeld klare Richtlinien zum angemessenen Umgang mit KI-basierten Krisen aufzustellen. Folgende Aspekte sollten dabei berücksichtigt werden:
Maßnahmen zur Abwehr von KI-gesteuertem Negative Campaigning
Sensibilisierung und Schulungen: Durchführen von Schulungen und Sensibilisierungsprogrammen, um Bewusstsein für die Existenz von Deepfakes zu schaffen und Fähigkeiten zu entwickeln, sie zu erkennen.
Risikobewertung: Analyse der spezifischen Risiken, denen das Unternehmen durch Deepfakes ausgesetzt sein könnte. Identifizierung besonders anfälliger Bereiche und Entwicklung entsprechender Strategien.
Etablierung von Richtlinien und Verfahren: Implementierung klarer Richtlinien und Verfahren zur Überprüfung der Authentizität von Medieninhalten. Festlegung interner Prozesse für den Umgang mit potenziellen Deepfake-Angriffen.
Investitionen in Technologie und Tools: Nutzung von KI-basierten Technologien und Tools zur Erkennung und Identifizierung von Deepfakes. Nutzung vorhandener Softwarelösungen, die bei der Erkennung gefälschter Inhalte helfen.
Überwachung von Online-Plattformen: Kontinuierliche Überwachung von Online-Plattformen und sozialen Medien auf potenzielle Deepfake-Inhalte, die dem Unternehmen schaden könnten.
Krisenkommunikationsplan: Erstellung eines detaillierten internen und externen Krisenkommunikationsplans mit spezifischen Schritten und Verantwortlichkeiten für den Umgang mit einer durch KI verursachten Krise.
Zusammenarbeit mit Experten: Kooperation mit Fachleuten in den Bereichen Cybersecurity, Forensik und KI, um das Unternehmen zu schützen und angemessen auf Krisen reagieren zu können.
Regelmäßige Aktualisierung und Anpassung: Kontinuierliche Überprüfung und Anpassung der Vorbereitungsmaßnahmen und Sicherheitsprotokolle angesichts der ständigen Weiterentwicklung der Deepfake-Technologie.
Fazit
Abschließend ist festzuhalten, dass die Entstehung und Verbreitung von Deepfakes eine ernsthafte Bedrohung für Politik, Unternehmen und die Gesellschaft als Ganzes darstellt. Die Manipulationsmöglichkeiten durch diese Technologie können das Vertrauen in Informationen und die Glaubwürdigkeit von Personen stark untergraben. Es ist unerlässlich, dass Unternehmen, Politiker:innen und Organisationen sich proaktiv mit dieser Thematik auseinandersetzen.
Hoffnung macht, dass neben dem rasanten Vormarsch von Deepfakes auch die Programme und Ansätze zur Erkennung von Deepfakes vielversprechende Fortschritte machen. Diese kommen nun vermehrt zum Einsatz, um KI-manipulierte Inhalte zu identifizieren und zu kennzeichnen. Es bleibt zu hoffen, dass diese dabei helfen, die Auswirkungen von manipulierten Medieninhalten zu minimieren und das Vertrauen in digitale Informationen wieder zu stärken. Die Zusammenarbeit von Expert:innen aus verschiedenen Bereichen wie KI, Cybersicherheit, Forensik und Medien ist dabei unabdingbar, damit Menschen auch zukünftig die Chancen und Potenziale des digitalen Zeitalters bestmöglich nutzen können.
Titelbild: erstellt mit https://lexica.art