Letzte Woche hat das Federal Bureau of Investigation (FBI) eine öffentliche Bekanntmachung herausgegeben über den Anstieg expliziter Deepfake-Inhalte und wie diese für Verbrechen wie Erpressung, Nötigung und Belästigung verwendet werden. Vereinfacht ausgedrückt ist ein Deepfake synthetisches Multimediamaterial, das versucht, ein Original zu imitieren. Es kann sich dabei um ein von der KI erstelltes Foto, Video oder Audioclip handeln.
Der Name „Deepfake“ kommt von der Technologie, die bei der Erstellung solcher Medien zum Einsatz kommt – Deep Learning –, bei dem ein KI-Modell mit Originalmaterial trainiert und dann modifiziert wird, um die gewünschten Ergebnisse zu erzielen. Es handelt sich nicht gerade um eine neue Erfindung, aber da generative KI immer beliebter und zugänglicher wird, nehmen Deepfake-Verbrechen zu.
Ihre Popularität ist so groß, dass sogar das Wahlkampfteam des republikanischen Präsidentschaftskandidaten Ron DeSantis Deepfake-Bilder seines Rivalen Donald Trump verwendete, um ihn zu verleumden. Deepfakes sind auch einer der Gründe, warum überall Forderungen nach einer Regulierung der KI laut werden. Laut dem FBI werden die Inhalte zur Erstellung von Deepfakes im Allgemeinen aus Social-Media-Posts und Videoanruf-Clips entnommen und dann in sexuell eindeutiges Material für Erpressung und Mobbing umgewandelt.
Was die Experten zu Deepfakes sagen
Was also ist die Lösung? Leider gibt es keine Lösung. Zumindest nicht, ohne einen Kompromiss einzugehen – einen, der die gesamte Bedeutung von „sozialen Medien“ grundsätzlich auf den Kopf stellt.
„Leider besteht die einzige Möglichkeit, sicherzustellen, dass keines Ihrer Fotos oder Videos zur Erstellung von Deep Fakes verwendet wird, darin, keine Bilder von sich selbst mehr online zu veröffentlichen. Das würde den Internetnutzern jedoch viel Spaß machen“, sagt Adrianus Warmenhoven, ein Cybersicherheitsberater bei Nord.
„Wenn neue und bessere Sicherheitspraktiken auftauchen, werden böswillige Akteure einen Weg finden, Schaden anzurichten. Es ist ein Aufholspiel und manchmal enttäuschend“, sagt Parteek Saran, ein ehemaliger Google-Mitarbeiter und Entwickler eines Passwortverwaltungstools der nächsten Generation namens UnoEr schlägt außerdem vor, dass man versuchen sollte, eine „Zero-Trust-Philosophie“ zu übernehmen, wenn es um das Posten von Inhalten in sozialen Medien geht, und betont, dass eine effektive Kommunikation mit Bekannten wichtig sei, um Deepfake-Betrug zu vermeiden.
„KI kann zwar dabei helfen, digitale Sicherheitsbedenken auszuräumen, aber es gibt kein narrensicheres Sicherheitsnetz“, sagt Yaron Litwin, Digital Safety Expert & CMO bei Überdachung. Die gleichnamige App des Unternehmens soll Kinder vor Online-Sexualverbrechen schützen und bietet zudem eine Reihe von Kindersicherungen. Litwin fügt hinzu, dass Sie das Posten intimer oder kompromittierender Bilder vermeiden und gleichzeitig die Häufigkeit des Postens normaler Bilder reduzieren sollten.
So können Sie sich schützen
Deepfakes sind erschreckend und es ist schwer zu ermessen, welches Trauma sie bei einer Person und ihren Familienmitgliedern auslösen können. Aber es gibt einige Möglichkeiten, wie Benutzer vermeiden können, in die Falle zu tappen oder sie zumindest weitgehend vermeiden können.
Um zu verstehen, welche Schritte durchschnittliche Smartphone-Benutzer mit typischen digitalen Fähigkeiten unternehmen können, habe ich mich an Andrew Gardner gewandt, Vizepräsident für Forschung und Innovation bei Gen Digitalein Softwareunternehmen, das vertrauenswürdige Sicherheitstools wie unter anderem Norton, Avast und Avira anbietet.
Laut Gardner beginnen Sicherheitsprotokolle auf der grundlegenden Ebene. Benutzer sollten damit beginnen, ihre Profile auf privat zu stellen – oder zumindest die Sichtbarkeitseinstellungen für Beiträge so zu ändern, dass nur die Personen, denen sie gegenseitig folgen, ihre Beiträge sehen und mit ihnen interagieren können. Kindersicherungen, die mittlerweile für fast alle großen Social-Media-Plattformen verfügbar sind, sollten sorgfältig aktiviert werden, damit Erziehungsberechtigte verdächtige Interaktionen im Auge behalten können.
Es ist allgemein üblich, nur Anfragen von Leuten anzunehmen, die man kennt, aber ein zusätzlicher Schritt kann viel bewirken. „Wenn Sie netzwerken, überprüfen Sie die letzten Posts und Aktivitäten der Eingeladenen, um zu beurteilen, wie authentisch sie sind“, rät Gardner und fügt hinzu, dass man bei „Konten mit wenigen Freunden oder gemeinsamen Freunden“ vorsichtig sein sollte. Ein weiterer wichtiger Ratschlag des Gen Digital-Managers ist die Überprüfung und Einschränkung von Social-Media-Logins.
Benutzer besuchen häufig Onlinedienste und entscheiden sich für die Anmeldeoption für soziale Medien, um sich die Mühe zu ersparen, ein Konto zu erstellen. „Dadurch erhalten Apps Zugriff auf persönliche Informationen, und in manchen Fällen verkaufen diese Apps diese Informationen an Dritte“, sagt er. Der Skandal um Cambridge Analytica und Facebook ist ein gutes Beispiel. Man sollte regelmäßig überprüfen, welche Apps mit den eigenen Social-Media-Konten verknüpft sind, und ihnen den Zugriff entziehen, sofern dies nicht notwendig ist.
Bei Deepfakes handelt es sich um ausgeklügelte, KI-gestützte Verbrechen. Dennoch empfiehlt Gardner, dass Benutzer sich an einige grundlegende Sicherheitsrichtlinien halten – etwa die Aktivierung der Zwei-Faktor-Authentifizierung, die Verwendung sicherer Passwörter, die Aktivierung biometrischer Passkeys und das Vermeiden verdächtiger oder unbekannter Links.
Soziale Medien sicher und verantwortungsbewusst nutzen
Litwin von Canopy ist der Meinung, dass es umso einfacher wird, überzeugende Deepfakes zu erstellen, je mehr man teilt. Es gibt keinen Mangel an zwielichtigen KI-Bildgenerierungsmodellen, ohne dass es Einschränkungen bei der Erstellung expliziten Materials gibt. Diese Tools sind auf Bildeingaben angewiesen, um das Modell zu trainieren. Je mehr Trainingsdaten es erhält, desto genauer und realistischer werden die Deepfakes.
Dies ist die Standardtaktik, die von gängigen KI-Bildgeneratoren wie MidJourney implementiert wird. Wenn Ihr Social-Feed offen ist und eine große Menge an Fotos und Videos enthält, kann ein böswilliger Akteur diese nicht davon abhalten, sie zu durchsuchen, um kompromittierende Deepfakes zu erstellen. Aber wenn Sie zu den Leuten gehören, die den Wert von Social Media als Ort zum Aufbewahren Ihrer schönsten Erinnerungen sehen, gibt es einige Maßnahmen, die Sie ergreifen können muss nehmen.
„Seien Sie vorsichtig, welche persönlichen Informationen Sie online weitergeben, passen Sie die Datenschutzeinstellungen Ihrer Konten an, aktivieren Sie die Zwei-Faktor-Authentifizierung und überprüfen Sie Bilder sorgfältig auf Unvollkommenheiten“, heißt es in Boyd Clewisein Cybersicherheitsexperte im Forbes Security Council und Autor von „Through The Firewall: The Alchemy Of Turning Crisis Into Opportunity“.
Doch wie erkennt man zuverlässig ein Social-Media-Profil, hinter dem vermutlich ein böswilliger Akteur steckt, der zwielichtige Machenschaften wie die Erstellung und Verbreitung von Deepfakes betreibt? „Wenn Video- oder Audiomaterial von verdächtigen Profilen geteilt wird und die Konten keine persönlichen Informationen oder Fotos enthalten, handelt es sich wahrscheinlich um ein Fake-Profil“, vermutet Tomas Samulis, ein Informationssicherheitsarchitekt bei Baltic Amadeus. Er vermutet, dass solche Profile ohne persönlich identifizierbare Informationen speziell erstellt werden, um Fakes und andere kontroverse Informationen zu verbreiten.“
Was tun, wenn Sie Opfer eines Deepfakes werden?
Doch die Vorsichtsmaßnahmen, die ein durchschnittlicher Smartphone-Nutzer treffen kann, sind begrenzt. Selbst die digital versiertesten Nutzer sind Opfer von Cyberkriminalität, selbst wenn sie alle Standardtools wie Zwei-Faktor-Authentifizierung, private Profile und biometrische Firewalls verwenden.
Wenn Sie trotz aller Vorsichtsmaßnahmen dennoch im Zentrum eines Deepfake-Verbrechens stehen, suchen Sie fachkundigen Rat und Hilfe bei den Behörden, anstatt die Sache selbst in die Hand zu nehmen. Experten weisen darauf hin, dass das Zusehen bei solchen Belästigungen oder der Versuch, die Sache diskret selbst zu regeln, die Situation für die Opfer oft verschlimmert.
„Wenn Sie feststellen, dass jemand Ihre Inhalte missbraucht, suchen Sie einen Anwalt auf, der sich mit dem Urheberrecht auskennt und Ihnen dabei hilft, die Inhalte so schnell wie möglich entfernen zu lassen“, rät Rob Scott, Mitglied der Dallas Bar Association und zugelassener Rechtsexperte in Bereichen wie Cybersicherheitsrisiken und Datenschutz.
Die Konsultation eines Rechtsexperten ist von entscheidender Bedeutung, da dieser Sie in Bezug auf Ihre digitalen Rechte beraten kann. Litwin von Canopy schlägt außerdem vor, alle Beweise aufzubewahren, und rät Opfern, „alle Beweise für die Erpressungsversuche zu dokumentieren, wie etwa Nachrichten, E-Mails oder jegliche Form der Kommunikation im Zusammenhang mit der Erpressung.“
Ein weiterer wichtiger Ratschlag ist, dass das Opfer sofort den Kontakt mit einem Kriminellen abbrechen sollte, da dieser es mit noch schwerwiegenderen Erpressungsforderungen weiter manipulieren oder belästigen könnte. Gleichzeitig sollten sich Benutzer an einen Cybersicherheitsexperten wenden oder eine der staatlichen Cybercrime-Hotlines anrufen, um rechtzeitig die richtigen Maßnahmen zu ergreifen.
So erkennen Sie Deepfakes
Da KI-Engines immer ausgefeilter werden, werden die von ihnen produzierten Deepfakes unheimlich real und schwer zu erkennen. Es gibt jedoch immer noch einige Marker, auf die Benutzer achten können, um synthetisch verändertes oder von KI generiertes kompromittierendes Material zu erkennen.
Nachfolgend finden Sie eine Zusammenstellung von Deepfake-Kennungen, die Experten zu bieten haben:
- Achten Sie auf unnatürliche Augenbewegungen. Wenn die Augen einer Person nicht zu blinzeln scheinen, die Augenbewegungen nicht stimmen oder die Mimik nicht mit den gesprochenen Worten synchron zu sein scheint, handelt es sich höchstwahrscheinlich um einen Deepfake-Clip. Ein Mangel an Emotionen oder inkohärente Emotionen sind ein verräterisches Zeichen dafür, dass das Medium digital verändert wurde.
- „Bei der Deepfake-Technologie stehen in der Regel die Gesichtszüge im Mittelpunkt“, sagt Gardner. „Wenn die Körperform der Person nicht natürlich wirkt oder ihre Bewegungen ruckartig und unkoordiniert sind, handelt es sich bei dem Video wahrscheinlich um ein Deepfake.“
- Ein weiterer zuverlässiger Marker ist der Hintergrund, der unnatürlich verschwommen erscheinen oder seltsame visuelle Artefakte aufweisen kann. Eine weitere einfache Möglichkeit, Deepfakes zu erkennen, besteht darin, nach abnormalen Verfärbungen oder schwerwiegenden Farbabweichungen zu suchen, insbesondere in Bezug auf Gesichter und Schatten von Objekten in der Umgebung.
- Wenn Sie auf ein Foto stoßen, auf dem eine Person „perfektes Haar“ trägt, und Sie keine individuellen Elemente wie ein paar abstehende Haarsträhnen oder krauses Haar erkennen können, seien Sie vorsichtig. KI-Modelle haben bekanntermaßen auch Probleme mit Zähnen. Achten Sie auf Zähne, die entweder unnatürlich perfekt sind oder denen die Umrisse einzelner Zähne fehlen oder die mehr Zähne aufweisen als das übliche menschliche Gebiss.
- Falsch ausgerichtete Körperteile, verschwommene Konturen, ein paar zusätzliche oder weniger Finger, seltsam verdrehte Gliedmaßen, nicht synchrone Bewegungen von Körperteilen und eine Stimme ohne Pausen und emotionale Unterbrechungen sind weitere Anzeichen, auf die Sie besonders achten sollten. „Gefälschte Stimmen oder Audioaufnahmen haben oft Hintergrundgeräusche, roboterhaft klingende Stimmen und eine seltsame Aussprache“, erklärt Samulis.
Ein ernstes Problem mit halbwirksamen Lösungen
Wie oben erläutert, gibt es kein narrensicheres Sicherheitsnetz gegen Deepfakes. Aber wenn Sie vorsichtig sind, wo Sie Fotos teilen, wer sie sehen kann und wie weit Ihr Zugang zu sozialen Medien reicht, können Sie sich in einer relativ sicheren Zone bewegen.
Man sollte auch darauf achten, wer seine Online-Freunde sind, und die Aktivitäten neuer Eingeladener überprüfen, bevor man sie zu seinem Freundeskreis in den sozialen Medien hinzufügt. Was Deepfakes betrifft, ist das ein bisschen knifflig. Aber wenn Sie wachsam bleiben und sich die Zeit nehmen, Unstimmigkeiten in einem verdächtigen Foto oder Video zu beurteilen, können Deepfakes mit einem ziemlich hohen Grad an Genauigkeit erkannt werden.
Letztendlich geht es darum, hygienische Online-Gewohnheiten zu entwickeln und in einem Online-Umfeld, in dem zunehmend Fälschungen vorkommen, wachsam zu bleiben.