Interview: Deep Fakes erkennen mit KI | Bundesregierung (2024)

Hochwertige Fälschungen von Bildern und Videos – sogenannte Deep Fakes – können inzwischen mit einfachen technischen Mitteln angefertigt werden. Und sie tauchen immer öfter auf den Bildschirmen von Nutzerinnen und Nutzern auf. Ein Trend, der mit einem erheblichen Risiko einhergehen kann: Denn solche täuschend echt aussehenden Darstellungen, die Personen beispielsweise Falschaussagen in den Mund legen, können zur Verbreitung von Desinformation und ausländischer Propaganda missbraucht werden.

Um solche Deep Fakes zu identifieren, wollen die Forscherinnen und Forscher des Projekts „Fake-ID“ Künstliche Intelligenz (KI) einsetzen. Das Bundesministerium für Bildung und Forschung fördert das Projekt mit 2,5 Millionen Euro im Rahmenprojekt „Forschung für die zivile Sicherheit“.

Uwe Rabeler von der Bundesdruckerei leitet das Projekt. Klaus Herrmann ist sein Stellvertreter und Systemarchitekt. Im Interview erklären die beiden, warum es wichtig ist, Deep Fakes erkennen zu können und welche technischen Hilfsmittel sie zur Verfügung stellen wollen.

Herr Rabeler, Herr Herrmann, Ihr Forschungsprojekt arbeitet seit Mai 2021 daran, Deep Fakes besser erkennen zu können. Was hat Sie dazu bewegt, dieses Projekt zu starten?

Rabeler: Sicherheitsbedrohungen, die von gefälschten Bildern und Videos ausgehen, und der Umgang damit bei den Anbietern von Identifizierungsverfahren sowie in den Sicherheitsbehörden und der Justiz sind bislang nur wenig erforscht; diese Lücke wollen wir mit dem Projekt möglichst verkleinern.

Sie sprechen von Sicherheitsbedrohungen, die von Deep Fakes ausgehen. An welche Beispiele denken Sie dabei?

Bislang konzentrierte sich die Diskussion vor allem auf Identitätsbetrug: Der Besitz einer erfundenen, überlassenen oder gestohlenen Identität hat für Kriminelle einen großen Nutzen und geht oft einher mit anderen kriminellen Taten. Ein Konto unter einer anderen Identität, einer sogenannten „Fake-ID“, zu eröffnen, von diesem Konto Geld abzuheben, Überweisungen zu tätigen, einen Kredit aufzunehmen und so die Herkunft des Geldes zu verschleiern oder Geld betrügerisch zu erlangen – all das sind Missbrauchsmöglichkeiten. Der angerichtete Schaden für Betroffene solcher Finanzdelikte ist bereits jetzt sehr groß und geht in Deutschland in die Millionen.

Zusätzlich wird zunehmend und öffentlich über Bedrohungsszenarien diskutiert, in denen Bild- und Video-Fälschungen gezielt eingesetzt werden, um politische Entscheidungsprozesse zu manipulieren oder bestimmte Personen zu diskreditieren.

Aus der Perspektive von Polizei und Justiz ist ein weiteres Sicherheitsszenario für das „Fake-ID“-Projekt relevant: Bilder und insbesondere Videos, die heute mithilfe von mobilen Geräten im Alltag massenhaft angefertigt werden, sind zunehmend als Beweismittel in Straf- und anderen gerichtlichen Verfahren relevant. Ihre Beweiskraft hängt maßgeblich davon ab, dass die Echtheit des Bild- und Videomaterials nachweisbar ist. Die schiere Menge solcher digitalen Bild- und Videobeweismittel steigt stark an; daher besteht die Notwendigkeit, dass die Gerichte und Strafverfolgungsbehörden das Material automatisiert auf Echtheit prüfen können.

Wie wollen Sie Deep Fakes aufspüren?

Herrmann: Im Vorhaben „Fake-ID“ werden Merkmale und Eigenschaften echter und gefälschter Identitäten formal beschrieben und ihre jeweilige Erkennung mittels Künstlicher Intelligenz erlernt. Wir nutzen also KI-Verfahren, um Deep-Fakes aufzuspüren. Dabei wird das Bild- und Videomaterial nach sogenannten Artefakten und Ungenauigkeiten untersucht. Dies können etwa für den Menschen unsichtbare Merkmale von Fake-Generatoren oder Ungereimtheiten in den Gesichtsstrukturen sein, die bei der KI-basierten Bildmanipulation auftreten. Zudem wollen wir im Projekt auch weitere Detektionsverfahren entwickeln, wie die Pulsschlagerkennung bei Bildaufnahmen.

Künstliche Intelligenz beschreibt die Fähigkeit von Maschinen, basierend auf Algorithmen Aufgaben autonom auszuführen und dabei die Problemlösungs- und Entscheidungsfähigkeiten des menschlichen Verstandes nachzuahmen.

Wie weit sind Sie in Ihrer Forschung? Deuten sich schon erste Erfolge an?

Rabeler: Die Bundesdruckerei hat mit ihren Partnern einen Demonstrator entwickelt. Er soll Audio- und Video-Livestreams in Echtzeit analysieren, beispielsweise zur Personenidentifikation in Video-Ident-Verfahren. Außerdem soll er der gerichtsverwertbaren Analyse digitaler Bild- und Videobeweismittel dienen. Der Demonstrator enthält die von den Partnern entwickelten Deep-Fake-Detektoren, die Echtheitsmerkmale und Verdachtsmomente für das Vorliegen gefälschter IDs in Bildern und Videos identifizierbar machen.

Eine erste Version des Demonstrators ist bereits fertiggestellt und soll mittels Anwendertests im Sommer 2024 getestet werden. Die finale Version ist derzeit für Ende des dritten Quartals dieses Jahres geplant.

Wie können Ihre Erkenntnisse in der Praxis von Nutzen sein? Welche Form der Anwendung ist denkbar?

Herrmann: Wir planen, die im Projekt erarbeiteten Technologien als Lösung überall dort einzusetzen, wo Identitätsprüfungen im Netz es erfordern oder nahelegen. In vielen Fällen sehen die heutigen rechtlichen Rahmenbedingungen derartige Lösungen nicht vor, meist mangels technischer Durchführbarkeit oder nicht ausreichender Sicherheit. Wir sehen hier die Aufgabe, einen technologischen Vorlauf für künftige Entwicklungen zu schaffen. Mit dem in unserem Demonstrator verwendeten Ansatz der erklärbaren KI wollen wir Anwender bei ihren Entscheidungen unterstützen. Dies gilt insbesondere für die Verifikation von Bild- und Video-Beweismaterial im Bereich der Justiz. Hier wäre ein zweistufiger Prozess denkbar: der erste selektiert vor und im zweiten Schritt wird der Anwender in seiner Entscheidung bei der Echtheitsprüfung unterstützt.

Verfahren wie Video-Ident oder eID zeigen, dass im Markt ein Bedarf für Online-Authentifizierungen besteht. Diese durch verbesserte Identitätsdokumente und KI-basierte Unterstützung abzusichern – hierzu können unsere Projektergebnisse einen Beitrag leisten. Der Vorteil einer solchen Lösung: Experten und auch nicht geschultes Personal können nutzerspezifisch unterstützt werden.

Das heißt, auch private Internetnutzerinnen und -nutzer können von Ihrem Projekt profitieren, um zum Beispiel Desinformation besser zu erkennen?

Rabeler: Die Bildqualität der Deep-Fake-Generatoren verbessert sich stetig. Vor einigen Jahren waren Deep-Fakes von geschultem Personal häufig leicht zu erkennen. Inzwischen gilt dies aufgrund der hohen Bildqualität nicht mehr. Beim Projekt „Fake-ID“ wollen wir eine Demonstrator-Anwendung entwickeln, die sowohl beruflichen wie privaten Anwendern Hinweise auf das Vorliegen eines Fakes liefern.

Sollten die Detektoren Verdachtsmomente finden, werden diese dem menschlichen Anwender visualisiert – und zwar in Form einer von uns als Risiko- und Verdachtslandkarte bezeichneten Hilfe. Dabei wird eine sogenannte „schwache“ KI genutzt, um menschliches Handeln zu unterstützen, nicht zu ersetzen. Die Verdachtslandkarte soll formal relevante Merkmale von Original und möglicher Fälschung beinhalten. Über Mechanismen, wie ein Ampelfarbensystem, sollen die identifizierten Verdachtsmomente dem menschlichen Entscheider je nach Relevanz kommuniziert werden, um die KI-basierte Einteilung – echt oder möglicherweise gefälscht – für den Menschen nachvollziehbar zu machen.

Wie lange läuft das Projekt noch?

Herrmann: Das Projekt „Fake-ID“ lief bis Ende April und wurde kostenneutral bis Ende Oktober dieses Jahres verlängert. Aufgrund der hohen Dynamik der Entwicklungen in der KI besteht insbesondere seitens der Partner der Wunsch, die Arbeiten weiterzuführen. Zunächst sollen die Ergebnisse der Anwendertests abgewartet werden, um die nächsten Schritte zu planen.

Interview: Deep Fakes erkennen mit KI | Bundesregierung (2024)

FAQs

What is the solution to deepfakes? ›

To combat such abuses, technologies can be used to detect deepfakes or enable authentication of genuine media. Detection technologies aim to identify fake media without needing to compare it to the original, unaltered media. These technologies typically use a form of AI known as machine learning.

Can AI deepfakes be detected? ›

NPR identified three deepfake audio detection providers — Pindrop Security, AI or Not and AI Voice Detector. Most claim their tools are over 90% accurate at differentiating between real audio and AI-generated audio. Pindrop only works with businesses, while the others are available for individuals to use.

What algorithms are used to detect deepfakes? ›

Deepfakes are primarily created using deep learning algorithms, particularly generative adversarial networks (GANs) or convolutional neural networks (CNN). These technologies identify and learn from large amounts of data to generate realistic-looking fake media.

How powerful is deepfake? ›

The deceptive power of deepfakes lies in their ability to mimic real human nuances, making them particularly effective in scams that leverage the trust and authority of well-known figures.

How do you fight deepfakes? ›

Developing a discerning eye is invaluable when curbing the spread of deepfakes and their impacts. If a piece of content seems outrageous or highly controversial, scrutinize it critically before sharing it on social media platforms or believing the message in the article.

Is it illegal to search for deepfakes? ›

As of my knowledge cutoff in September 2021, searching for deepfake content online isn't in itself illegal. However, accessing, sharing, or downloading certain types of deepfake content, such as nonconsensual p*rnographic deepfakes, may constitute a crime depending on the jurisdiction.

Which software is used for deepfake? ›

DeepFaceLab. DeepFaceLab is a software that allows you to create realistic face swaps in videos. You can take a video of your friend and replace their face with someone else's, like a movie star or another friend. It is the best free deepfake software for PC and also it is programmed as an open-source GitHub project.

How can you tell if a video is AI generated? ›

How to identify AI-generated videos
  1. Look out for strange shadows, blurs, or light flickers. In some AI-generated videos, shadows or light may appear to flicker only on the face of the person speaking or possibly only in the background. ...
  2. Unnatural body language. This is another AI giveaway. ...
  3. Take a closer listen.

Who benefits from deepfakes? ›

For content creators, the deepfake possibilities are super beneficial because they could create a deepfake version of themselves that could do their educational content, advertising, and so much more.

What is the bad side of deepfakes? ›

Not only has this technology created confusion, skepticism, and the spread of misinformation, deepfakes also pose a threat to privacy and security. With the ability to convincingly impersonate anyone, cybercriminals can orchestrate phishing scams or identity theft operations with alarming precision.

What are the challenges of deepfakes? ›

Regulating deepfakes in electoral campaigns is challenging due to rapid technological advancements and the global nature of online platforms. Governments and election authorities struggle to keep pace with evolving AI techniques and may lack expertise in regulating AI-driven electoral activities.

How to get rid of deepfakes? ›

Limit the amount of data available about yourself, especially high-quality photos and videos, that could be used to create a deepfake. You can adjust the settings of social media platforms so that only trusted people can see what you share.

How can we protect against deepfakes? ›

Use trustworthy antivirus and anti-malware software that incorporate features to protect against phishing attacks and suspicious activities, Kaskade says. Some software now also offers protection against identity theft and can alert you to potential deepfake scams.

What technology is used to anti deepfakes? ›

Technology

Using machine learning, neural networks and forensic analysis, these systems can analyze digital content for inconsistencies typically associated with deepfakes. Forensic methods that examine facial manipulation can be used to verify the authenticity of a piece of content.

Can deepfakes be banned? ›

Deepfake's legal standing is tricky and changing. This harmful content not intrinsically outlawed but can breach the law. This is especially true if they infringe on privacy, intellectual property, or involve defamation, harassment, or fraud.

Top Articles
Latest Posts
Article information

Author: Otha Schamberger

Last Updated:

Views: 6199

Rating: 4.4 / 5 (55 voted)

Reviews: 86% of readers found this page helpful

Author information

Name: Otha Schamberger

Birthday: 1999-08-15

Address: Suite 490 606 Hammes Ferry, Carterhaven, IL 62290

Phone: +8557035444877

Job: Forward IT Agent

Hobby: Fishing, Flying, Jewelry making, Digital arts, Sand art, Parkour, tabletop games

Introduction: My name is Otha Schamberger, I am a vast, good, healthy, cheerful, energetic, gorgeous, magnificent person who loves writing and wants to share my knowledge and understanding with you.