Deepfake & Datenschutz: Wie können Nutzer:innen ihre Daten schützen?

Künstliche Intelligenz und Machine Learning lassen uns altern, jünger aussehen oder uns in Videos auftreten, von denen wir nichts wussten. All das wird Deepfake genannt. Wie sieht es hierbei mit dem Datenschutz aus?

2021-05-20

Logo

Fotos zu manipulieren wird immer einfacher. Wir erinnern uns an den Hype um eine App, die Personen auf einem aufgenommenen Foto jünger oder älter machte bzw. gar ins andere Geschlecht umwandelte. Die Rede ist von FaceApp, einer App, die zweifelhaftes mit den ihr zur Verfügung gestellten Daten anstellt. Nun wird es auch immer simpler, Videos zu manipulieren. Und schon tritt Barack Obama in einem Videoclip auf und verspottet Trump – ein klassischer Deepfake, also ein künstlich erzeugtes Video, das aus einem offiziellen Video des US-Amerikanischen Expräsidenten entstanden ist. Wie funktioniert das? Und was bedeuten Deepfakes für personenbezogene Daten?
 

Was versteht man unter Deepfake?

Der Begriff Deepfake setzt sich aus den englischen Wörtern „Deep Learning“ und „Fake“ zusammen und beschreibt Fotos, vor allem aber Videos oder auch Audioaufnahmen, die mittels Künstlicher Intelligenz und Machine Learning erstellt oder manipuliert wurden. Für ein so manipuliertes Video reicht oftmals schon ein Foto einer Person, um daraus einen gefälschten Medieninhalt herzustellen. Was für die einen ein Spaß ist und mittels Deepfake-Apps in der Freizeit benutzt wird, ist vor allem im politischen Umfeld, aber auch im wirtschaftlichen und gesellschaftlichen Umfeld umstritten. Die Gefahr, gefälschte Botschaften oder Videos von z.B. Regierungsoberhäuptern zu verbreiten, die erdachte Inhalte ausplaudern, beinhaltet viel Zündstoff. Daher gibt es Bestrebungen,

  • Deepfake-Inhalte leichter identifizieren zu können,

  • die Nutzung zu beschränken oder aber

  • nicht genehmigte Erstellung unter Strafe zu stellen.

Wie dies umgesetzt werden soll, ist allerdings fraglich. Noch ist die Erstellung von Deepfakes open source und theoretisch allen zugänglich: Ca. 95% aller Deepfakes werden laut Github mittels der Open-Source-Software DeepFaceLab hergestellt.
 

Deepfake & Datenschutz – Welche Risiken und Datenschutzverletzungen stellen Deep Fakes dar?

In Kunst, Bildung und Wissenschaft können und werden Deepfakes bereits im Positiven verwendet. Wird diese Technik jedoch missbraucht, kann dies weitreichende Folgen haben: Opfer werden entweder mittels Deepfake getäuscht oder ihre Stimme / Bild- & Videomaterial wird verwendet, um daraus einen Deepfake zu erstellen. Vor allem letzteres stellt ein großes Problem dar, denn die unberechtigte Verwendung von Stimm-, Bild- oder Videoaufnahmen einer Person verletzt u.a. deren Recht am eigenen Bild / der eigenen Ton- & Videoaufnahme, ist aber ebenso eine unerlaubte Verwendung von sensiblen personenbezogenen Daten (z.B. biometrische Daten).

Noch gibt es in Deutschland zu in missbräuchlicher Absicht verwendeten Deepfakes keine gültige Rechtslage. Es bedarf aber in jedem Fall der juristischen Klärung, wie mit Datenschutzverletzungen bei diesem Thema umzugehen ist.
 

Deepfake-Beispiele aus der Praxis

Deepfakes können im wahrsten Wortsinn viele Gestalten annehmen und werden abseits der Kunst leider oftmals für Fehlinformationen, Betrug und Erpressung eingesetzt. Einige der bekanntesten Beispiele hier sind:

  • Manipulierte Videos. Vor allem das bereits zu Beginn angesprochene Video von Barack Obama oder aber ein Video der vermeintlich betrunkenen Nancy Pelosi, Sprecherin des US-Repräsentantenhauses, erzielten Millionen Klicks im Internet (wobei letzteres, um ganz genau zu bleiben, eher einen Cheap Fake darstellte). Dass es sich hier um manipulierte Videos handelt, war bei beiden auf den ersten Blick nicht zu erkennen und sie lösten, vor allem das letzte Video, hitzige politische Debatten aus.

  • Manipulierte Tonaufnahmen. Auch Stimmen können von Deepfakes betroffen sein und künstlich erzeugt werden. Ein sog. Voice-Deepfake verhalf Betrüger:innen z.B. zu einer knappen viertel Million Euro: In einem britischen Energiekonzern wurde die Stimme eines Geschäftsführers eines Mutterkonzerns gefälscht, der einem seiner CEOs eine Not-Überweisung über den Betrag von 243.000 Dollar anwies. Die Überweisung wurde ausgeführt und das Geld war weg.

  • Manipulierte Bilder. Manipulierte Bilder sind nichts neues, aber mittels Deepfake werden sie immer weiter verfeinert, so dass sie oftmals nur noch sehr schwer als Fake identifiziert werden können. Besonders perfide sind Deepfake-Pornobilder oder auch Deepfake-Pornovideos, die meist mittels Face Swapping v.a. gegen Journalistinnen oder Politikerinnen eingesetzt werden. Ein bekanntes Beispiel ist das der indischen Autorin und Journalistin Rana Ayyub, die gegen Machtmissbrauch in Indien kämpft und mit dem fake-Video diskreditiert werden sollte. Dies ist leider kein Einzelfall: Laut einer Studie von Vox Media macht der pornografische Anteil 96% der bisher erstellten Deepfakes aus.
     

Wie können Nutzer ihre Daten vor Deepfake-Angriffen schützen?

Sich selbst vor Deepfakes zu schützen ist leider nicht einfach, vor allem dann nicht, wenn Sie sehr freizügig mit Ihren personenbezogenen Daten umgehen und einen aktiven digitalen Fußabdruck im Internet hinterlassen. Das heißt, dass Sie fleißig Bilder, Videos o.ä. von sich ins Netz, z.B. auf soziale Plattformen, stellen. Neben der aktiven Reduktion von selbst ins Netz gestellten Bildern, Videos und Tonaufnahmen, auf die Fremde leicht Zugang haben, können Sie:

  • Ihre Privatsphäre-Einstellungen anpassen. Nutzen Sie Soziale Netzwerke bzw. alle Social Media-Konten nur mit der höchsten Privatsphäre-Einstellung, damit Fremde Ihre Bilder, Videos und Tonaufnahmen nicht oder zumindest unter höherem Aufwand abgreifen können.

  • Auf zweifelhafte Apps verzichten. Wie bereits eingangs angesprochen, sind Apps, die Bilder oder Videos im Deepfake-Style bearbeiten können – wie FaceApp, Fao oder wombo.ai –, sehr beliebt. Allerdings geben Sie diesen Apps neben Ihren Bildern (und damit biometrische Daten) nicht selten auch die uneingeschränkten Nutzungsrechte an Ihren Bildern. Lassen Sie die Finger von solchen Apps, vor allem, wenn die Nutzungsbedingungen nur sehr schwer zu durchschauen sind.

  • Ihre Medienkompetenz ausbauen: Nicht nur Sie selbst können zum Opfer eines Deepfake-Angriffs werden, sondern Sie können auch falschen Informationen und Fake-News erliegen, die beispielsweise mittels Deepfake-Videos in den Umlauf gebracht werden. Um dem vorzubeugen, beziehen Sie Ihre Nachrichten nur aus hochwertigen Quellen und checken Sie Nachrichten bei anderen Stellen gegen.

  • Ihr Umfeld aufklären: Unerfahreneren oder jüngeren Internet-Nutzer:innen sind die Gefahren von Deepfakes oftmals nicht bewusst. Klären Sie Ihr Umfeld auf und weisen Sie auf die Gefahren hin, die davon ausgehen.

Deepfake-Angriffe sind aber nicht nur im Privaten, sondern auch im Geschäftsumfeld ein erhebliches Problem, wie in den obengenannten Beispielen ersichtlich wurde. Darum ist es wichtig, auch im geschäftlichen Umfeld aktiv zu werden:

  • Mitarbeiterschulungen: Alle Mitarbeiter:innen werden meist in Sachen IT-Sicherheit geschult. Nehmen Sie hier auch den Punkt von Deepfake-Angriffen mit auf.

  • Protokolle: Auch wenn eine (vermeintlich) noch so dringende Überweisung getätigt werden muss – stellen Sie Sicherheitsprotokolle auf, die zwingend eingehalten werden müssen. Wenn mehrere Augen über eine Anweisung schauen und Prozesse verschiedene Sicherheitshürden nehmen müssen, wird die Gefahr, einem Betrug zu erliegen, immer geringer.

  • Technisch organisatorische Maßnahmen (TOM):TOM helfen durch Backups, sichere Passwörter usw., Systeme und Zugänge zu sichern oder zerstörte Daten zu rekonstruieren. So kann oftmals noch größere Schaden abgewandt werden, auch, wenn es Betrüger:innen gelungen ist, eine erste Sicherheitshürde zu überspringen.

  • Spezielle Programme: Spezialprogramme, um Deepfakes zu enttarnen, indem sie z.B. Inkonsistenzen in den Bildartefakten aufspüren, kommen immer mehr auf den Markt und können für sensible Geschäftsbereiche eine Lösung darstellen.

 

Das Thema Deepfakes steht erst noch in den Kinderschuhen. Ob es ein großes Problem wird, bleibt nur zu vermuten. Einige Länder reagieren bereits und haben gegen Deepfakes Gesetze erlassen, wie z.B. Kalifornien (die Gesetze AB-602 (Verbot der Synthetisierung menschlicher Gesichter, um pornografischen Material zu erstellen) sowie AB-730 (Verbot der Manipulation von Politiker-Bildern / politischer Kandidaten im Zeitraum von 60 Tagen vor einer Wahl)). Andere Länder müssen hier noch nachziehen. Bis dahin heißt es für Sie: Trauen Sie nicht allem, was Sie sehen. Das gilt einmal mehr fürs Internet.

Autorin: Kathrin Strauß
Artikel veröffentlicht am: 20.05.2021

Bitte beachten Sie: Allgemeine Beiträge können eine datenschutzrechtliche Beratung im Einzelfall nicht ersetzen. Für die Richtigkeit und Vollständigkeit unsere Blogbeiträge können wir keine Gewähr übernehmen. Inhalte beziehen sich immer auf die Rechts- und Faktenlage zum Zeitpunkt der Veröffentlichung und sind deshalb zum Zeitpunkt des Aufrufs möglicherweise nicht mehr aktuell.

Leitfaden: Datenschutz im Home- und Mobileoffice

Warum ist Datenschutz gerade beim mobilen Arbeiten von enormer Relevanz?

Home-Office hat seine datenschutzrechtlichen Tücken. In unserem Leitfaden Datenschutz im Home- und Mobileoffice finden Sie Hinweise zur Datenverarbeitung im Home-Office unter Berücksichtigung datenschutzrechtlicher Aspekte.

Jetzt Leitfaden herunterladen

Datenschutz im Home- und Mobileoffice

Aktuelle Beiträge zum Thema Datenschutz

Wir freuen uns auf Ihre Anfrage!

Telefon:

+49 89 / 250 039 220

Öffnungszeiten:

Mo. - Fr.: 09:00 - 18:00 Uhr