cnt

Deepfakes erkennen und bekämpfen

Es kann jeden treffen: Immer häufiger werden Deepfakes gezielt für Betrug, ­Desinformation und Manipulation eingesetzt. Wachsamkeit, kritisches Hinterfragen und robuste Sicherheitsmassnahmen sind heutzutage unerlässlich, um dieser Bedrohung zu begegnen.

Artikel erschienen in Swiss IT Magazine 2025/03

     

Ein Kuss zwischen Kamala Harris und Donald Trump, Papst Franziskus im weissen Balenciaga-Mantel oder Präsident Selenski, der seine Truppen zur Kapitulation aufruft – neben ihrem offensichtlich provozierenden Charakter haben diese Bilder und Videos eines gemeinsam: sie sind alle Deepfakes.

Diese täuschend echten aber künstlich generierten Medieninhalte, die mithilfe von Künstlicher Intelligenz (KI) erstellt oder manipuliert werden, gehören schon beinahe zu unserem Alltag. Spätestens seit Elon Musk letztes Jahr das KI-Tool Grok auf seiner Kurznachrichtenplattform X integrieren liess, mit dem sich Fotos wie der erwähnte Kuss beliebig erzeugen und manipulieren lassen, ist wohl allen die potenzielle Bedrohung solcher Deepfakes bewusst. Gerade wenn sie in böswilliger Absicht verwendet werden, können Deepfakes erhebliche Auswirkungen auf unser Leben haben – sowohl im beruflichen als auch im privaten Kontext.

Weitere Informationen zu Deepfakes
Auf der «First Ai-iD Kit»-Plattform finden Sie weiterführende Informa­tionen zu Deepfakes und wie man sie erkennen und sich davor schützen kann: www.firstai-idkit.com

Die Technologie hinter der Täuschung

Bei Deepfakes ist der Name Programm: Es handelt sich um gefakte Inhalte, die mittels Deep Learning erstellt werden, einem Teilbereich des maschinellen Lernens. Dabei lernen KI-Systeme anhand künstlicher neuronaler Netze von bestehenden Daten und analysieren so beispielsweise Aussehen, Stimme und Mimik einer Person. Diese individuellen Merkmale können anschliessend auf Personen in bestehenden Fotos oder Videos übertragen oder zur Generierung völlig neuer, künstlich erzeugter Darstellungen verwendet werden. Diese Technik ist bereits seit Jahren bekannt: 2017 tauchten vermeintlich kompromittierende Videos von berühmten Schauspielerinnen und Musikerinnen auf, deren Gesichter unter Einsatz von KI auf die Körper von Erotikdarstellerinnen montiert worden waren.


Der Handel mit Deepfake-Tools im Darknet floriert, und Recherchen zeigen, dass Bedrohungsakteure bereit sind, viel Geld für qualitativ hochwertige Deepfakes zu zahlen – die Preise können bis zu 20’000 US-Dollar pro Minute betragen. Die zunehmende Verfügbarkeit und Benutzerfreundlichkeit von Deepfake-Software macht die Technologie dabei einem breiten, nicht unbedingt technologieaffinen Publikum zugänglich. Gleichzeitig spielt die Tatsache, dass heute die meisten Menschen, aber auch zunehmend Unternehmen und Regierungen, auf Social Media aktiv sind und Bilder und Videos posten, Betrügern zusätzlich in die Hände. Erschreckenderweise reichen oft nur wenige Sekunden Video- oder Audiomaterial oder sogar bloss ein einziges Bild aus, um einen überzeugenden Deepfake zu erstellen. Somit erhöht sich auch die Wahrscheinlichkeit, selbst Opfer einer solchen Manipulation zu werden.

Eine Frage des Vertrauens

Traditionelle Cyberangriffe wie Ransomware- oder Phishing-Attacken nutzen den Menschen zwar als Einfallstor, zielen aber letztlich auf die Kompromittierung von Systemen ab – etwa, um Daten zu stehlen oder zu verschlüsseln. Ein Klick auf einen manipulierten Link genügt, damit sich Kriminelle Zugriff auf die Systeme verschaffen können. Deepfakes hingegen machen den Menschen selbst zum Ziel des Angriffs. Hier geht es nicht um Systemkompromittierung, sondern vielmehr um gezielte Manipulation. Der Mensch wird dazu gebracht, unwissentlich den Forderungen der Angreifer nachzukommen und – beispielsweise durch Geldüberweisungen oder die Herausgabe sensibler Daten – deren kriminelle Ziele zu erfüllen.

Die Qualität der gefälschten Inhalte wird dabei immer besser: Indem Deepfakes ihre Wahrnehmung der Realität manipulieren, fallen Menschen immer wieder darauf herein. So können beispielsweise Schockanrufe, bei denen die vermeintliche Polizei die Stimme eines Familienmitglieds imitiert, täuschend echt wirken und werden oft geglaubt, selbst wenn Zweifel an der Geschichte aufkommen. Betrüger machen sich also das Vertrauen in uns bekannte Personen schamlos zunutze, was unsere Fähigkeit, Wahrheit von Fälschung zu unterscheiden, zunehmend auf die Probe stellt.


Deepfakes können uns alle betreffen – unabhängig von unserem Wissen über deren manipulierende Wirkung. Die zunehmende Verbreitung und einfache Verfügbarkeit von Tools, mit welchen sich täuschend echte Deepfakes erstellen lassen, machen sie in den falschen Händen zu einem gefährlichen Werkzeug. Im Unternehmenskontext werden Deepfakes unter anderem für kriminelle Aktivitäten wie CEO-Fraud eingesetzt, bei dem sich Betrüger als CEO ausgeben, um Mitarbeitende beispielsweise zu Zahlungen oder zur Herausgabe von vertraulichen Dokumenten zu bewegen. Aber auch im Recruiting-Prozess können Deepfakes eingesetzt werden, um falsche Qualifikationen vorzutäuschen oder die Identität von Bewerbern zu verschleiern. Je nachdem, wie erfolgreich die Betrüger dabei sind, kann dies für Unternehmen katastrophal sein und zu finanziellen Verlusten und schweren Reputationsschäden führen. Darüber hinaus werden Deepfakes aber auch zunehmend für Desinformationskampagnen oder zur Untergrabung des öffentlichen Vertrauens in demokratische Prozesse eingesetzt.

Deepfakes erkennen und bekämpfen

Für Unternehmen erfordert die Bekämfung von Deepfakes ein mehrschichtiges Vorgehen, das über rein technische Schutzmassnahmen hinausgeht. Zentral ist die Sensibilisierung der Mitarbeitenden und die Etablierung einer Kultur des Hinterfragens. Regelmässige Schulungen und Aufklärungskampagnen sind dabei unerlässlich, um Mitarbeitende und Führungskräfte für die Gefahren von Deepfakes zu sensibilisieren und ihnen gleichzeitig Werkzeuge zur Identifizierung von Manipulationen an die Hand zu geben. Idealerweise wird ein Umfeld geschaffen, in dem es selbstverständlich ist, bei ungewöhnlichen Anfragen oder Anweisungen nachzuhaken und die Identität des Absenders zu verifizieren – selbst wenn es sich dann tatsächlich um den CEO handelt.

Indem Unternehmen klare Eskalationsprozesse, verifizierte Kommunikationskanäle und Multi-Faktor-Authentifizierung einführen, können sie das Risiko von Deepfake-Angriffen zumindest minimieren. Bei besonders sensiblen Situationen können zudem Codewörter mit Schlüsselpersonen vereinbart werden, die dazu dienen, im Zweifelsfall eine mögliche Manipulation schnell aufzudecken. Schliesslich ist auch der Einsatz von Deepfake-Detektionssoftware eine weitere Möglichkeit, manipulierte Inhalte zu erkennen. Diese Software nutzt KI-Algorithmen, um Manipulationen in Bildern, Videos und Audioaufnahmen zu identifizieren.


Obwohl Deepfakes immer raffinierter werden, gibt es subtile Hinweise, die beim Erkennen von manipulierten Inhalten helfen können. Bei Videos sind dies zum Beispiel Unstimmigkeiten in der Lippensynchronisation, unnatürliche Mimik und Bewegungen sowie seltsame oder gar fehlende Augenbewegungen. Grundsätzlich gilt: Wenn etwas ungewöhnlich erscheint und man sich unsicher ist, ob ein Anruf, Video oder Bild tatsächlich vom angeblichen Absender stammt, sollte die Kommunikation sofort abgebrochen und wenn möglich die Identität des Absenders überprüft werden – beispielsweise indem man die in einem Schockanruf imitierte Person selbst anruft.

Gleichzeitig gibt es auch einfache Massnahmen, um zu verhindern, dass persönliche Inhalte für die Erstellung von Deepfakes missbraucht werden. In erster Linie geht es dabei darum, beim Teilen von persönlichen Daten smart vorzugehen. Dazu gehört:

- Kein Teilen von persönlichen oder sensiblen Informationen mit Fremden oder unverifizierten Personen.
- Datenschutzeinschränkungen auf Social Media aktivieren, um den Zugriff auf persönliche Bilder und Videos einzuschränken.
- Starke Passwörter verwenden und Multi-Faktor-Authentifizierungsabfragen nur dann akzeptieren, wenn sie selbst initiiert wurden.

Manipulation der öffentlichen Meinung

Die gesellschaftlichen Auswirkungen von Deepfakes sind weitreichend und betreffen nicht nur Privatpersonen und Unternehmen, sondern auch die Gesellschaft als Ganzes. So kann die gezielte Verbreitung von gefälschten Videos und Bildern – wie zum Beispiel das eingangs erwähnte Video von Selenski – zu Verunsicherung, Misstrauen und Polarisierung in der Bevölkerung führen oder im Falle der zahlreichen gefälschten Inhalte während des Wahlkampfs zwischen Trump und Harris einen Einfluss auf die öffentliche Meinungsbildung haben.


Auch hier liegt es an jedem von uns, Inhalte kritisch zu hinterfragen und die Quelle zu überprüfen: Stammt die Information von einem anerkannten Medium? Wurde das Foto oder Video anonym auf Social Media geposted oder in einem Verschwörungsportal publiziert? Die Validierung der Quelle hilft dabei, die Glaubwürdigkeit von Informationen besser einzuschätzen. So ist bei offiziellen Absendern wie renommierten Nachrichtenportalen die Wahrscheinlichkeit, dass Inhalte geprüft und verifiziert werden, grösser.

Erhöhte Wachsamkeit im digitalen Zeitalter

Die zunehmende Verbreitung von gefälschten oder manipulierten Aufnahmen zeigt: Ständiges Hinterfragen und eine gesunde Skepsis sind im Umgang mit digitalen Inhalten unerlässlich. Deepfakes werden immer raffinierter und überzeugender, weshalb wir alle – egal, ob Privatperson, Politiker oder Führungskraft – bewusst und reflektiert mit digitalen Informationen umgehen müssen. Nur so können wir künstlich erzeugte Inhalte als solche erkennen und uns vor deren manipulativen Einflüssen schützen.

Die Autoren

Johanna Clark ist Cyber Strategy Lead DACH bei ­Accenture und unterstützt Grosskonzerne dabei, sich mit bedrohungsorientierten Ansätzen auf neueste ­Cybergefahren vorzubereiten.

Thomas Holderegger ist Security Lead bei Accenture Schweiz. Er verfügt über mehr als 20 Jahre Erfahrung in den Bereichen IT und Cybersicherheit und war zuvor bei einem führenden Schweizer Finanzinstitut als Global IT Security Lead tätig. Er ist Präsident des Cybersecurity-­Komitees von Digitalswitzerland.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Zwerge traf Schneewittchen im Wald?
GOLD SPONSOREN
SPONSOREN & PARTNER