Interview: Deep Fakes erkennen mit KI | Bundesregierung (2024)

Hochwertige Fälschungen von Bildern und Videos – sogenannte Deep Fakes – können inzwischen mit einfachen technischen Mitteln angefertigt werden. Und sie tauchen immer öfter auf den Bildschirmen von Nutzerinnen und Nutzern auf. Ein Trend, der mit einem erheblichen Risiko einhergehen kann: Denn solche täuschend echt aussehenden Darstellungen, die Personen beispielsweise Falschaussagen in den Mund legen, können zur Verbreitung von Desinformation und ausländischer Propaganda missbraucht werden.

Um solche Deep Fakes zu identifieren, wollen die Forscherinnen und Forscher des Projekts „Fake-ID“ Künstliche Intelligenz (KI) einsetzen. Das Bundesministerium für Bildung und Forschung fördert das Projekt mit 2,5 Millionen Euro im Rahmenprojekt „Forschung für die zivile Sicherheit“.

Uwe Rabeler von der Bundesdruckerei leitet das Projekt. Klaus Herrmann ist sein Stellvertreter und Systemarchitekt. Im Interview erklären die beiden, warum es wichtig ist, Deep Fakes erkennen zu können und welche technischen Hilfsmittel sie zur Verfügung stellen wollen.

Herr Rabeler, Herr Herrmann, Ihr Forschungsprojekt arbeitet seit Mai 2021 daran, Deep Fakes besser erkennen zu können. Was hat Sie dazu bewegt, dieses Projekt zu starten?

Rabeler: Sicherheitsbedrohungen, die von gefälschten Bildern und Videos ausgehen, und der Umgang damit bei den Anbietern von Identifizierungsverfahren sowie in den Sicherheitsbehörden und der Justiz sind bislang nur wenig erforscht; diese Lücke wollen wir mit dem Projekt möglichst verkleinern.

Sie sprechen von Sicherheitsbedrohungen, die von Deep Fakes ausgehen. An welche Beispiele denken Sie dabei?

Bislang konzentrierte sich die Diskussion vor allem auf Identitätsbetrug: Der Besitz einer erfundenen, überlassenen oder gestohlenen Identität hat für Kriminelle einen großen Nutzen und geht oft einher mit anderen kriminellen Taten. Ein Konto unter einer anderen Identität, einer sogenannten „Fake-ID“, zu eröffnen, von diesem Konto Geld abzuheben, Überweisungen zu tätigen, einen Kredit aufzunehmen und so die Herkunft des Geldes zu verschleiern oder Geld betrügerisch zu erlangen – all das sind Missbrauchsmöglichkeiten. Der angerichtete Schaden für Betroffene solcher Finanzdelikte ist bereits jetzt sehr groß und geht in Deutschland in die Millionen.

Zusätzlich wird zunehmend und öffentlich über Bedrohungsszenarien diskutiert, in denen Bild- und Video-Fälschungen gezielt eingesetzt werden, um politische Entscheidungsprozesse zu manipulieren oder bestimmte Personen zu diskreditieren.

Aus der Perspektive von Polizei und Justiz ist ein weiteres Sicherheitsszenario für das „Fake-ID“-Projekt relevant: Bilder und insbesondere Videos, die heute mithilfe von mobilen Geräten im Alltag massenhaft angefertigt werden, sind zunehmend als Beweismittel in Straf- und anderen gerichtlichen Verfahren relevant. Ihre Beweiskraft hängt maßgeblich davon ab, dass die Echtheit des Bild- und Videomaterials nachweisbar ist. Die schiere Menge solcher digitalen Bild- und Videobeweismittel steigt stark an; daher besteht die Notwendigkeit, dass die Gerichte und Strafverfolgungsbehörden das Material automatisiert auf Echtheit prüfen können.

Wie wollen Sie Deep Fakes aufspüren?

Herrmann: Im Vorhaben „Fake-ID“ werden Merkmale und Eigenschaften echter und gefälschter Identitäten formal beschrieben und ihre jeweilige Erkennung mittels Künstlicher Intelligenz erlernt. Wir nutzen also KI-Verfahren, um Deep-Fakes aufzuspüren. Dabei wird das Bild- und Videomaterial nach sogenannten Artefakten und Ungenauigkeiten untersucht. Dies können etwa für den Menschen unsichtbare Merkmale von Fake-Generatoren oder Ungereimtheiten in den Gesichtsstrukturen sein, die bei der KI-basierten Bildmanipulation auftreten. Zudem wollen wir im Projekt auch weitere Detektionsverfahren entwickeln, wie die Pulsschlagerkennung bei Bildaufnahmen.

Künstliche Intelligenz beschreibt die Fähigkeit von Maschinen, basierend auf Algorithmen Aufgaben autonom auszuführen und dabei die Problemlösungs- und Entscheidungsfähigkeiten des menschlichen Verstandes nachzuahmen.

Wie weit sind Sie in Ihrer Forschung? Deuten sich schon erste Erfolge an?

Rabeler: Die Bundesdruckerei hat mit ihren Partnern einen Demonstrator entwickelt. Er soll Audio- und Video-Livestreams in Echtzeit analysieren, beispielsweise zur Personenidentifikation in Video-Ident-Verfahren. Außerdem soll er der gerichtsverwertbaren Analyse digitaler Bild- und Videobeweismittel dienen. Der Demonstrator enthält die von den Partnern entwickelten Deep-Fake-Detektoren, die Echtheitsmerkmale und Verdachtsmomente für das Vorliegen gefälschter IDs in Bildern und Videos identifizierbar machen.

Eine erste Version des Demonstrators ist bereits fertiggestellt und soll mittels Anwendertests im Sommer 2024 getestet werden. Die finale Version ist derzeit für Ende des dritten Quartals dieses Jahres geplant.

Wie können Ihre Erkenntnisse in der Praxis von Nutzen sein? Welche Form der Anwendung ist denkbar?

Herrmann: Wir planen, die im Projekt erarbeiteten Technologien als Lösung überall dort einzusetzen, wo Identitätsprüfungen im Netz es erfordern oder nahelegen. In vielen Fällen sehen die heutigen rechtlichen Rahmenbedingungen derartige Lösungen nicht vor, meist mangels technischer Durchführbarkeit oder nicht ausreichender Sicherheit. Wir sehen hier die Aufgabe, einen technologischen Vorlauf für künftige Entwicklungen zu schaffen. Mit dem in unserem Demonstrator verwendeten Ansatz der erklärbaren KI wollen wir Anwender bei ihren Entscheidungen unterstützen. Dies gilt insbesondere für die Verifikation von Bild- und Video-Beweismaterial im Bereich der Justiz. Hier wäre ein zweistufiger Prozess denkbar: der erste selektiert vor und im zweiten Schritt wird der Anwender in seiner Entscheidung bei der Echtheitsprüfung unterstützt.

Verfahren wie Video-Ident oder eID zeigen, dass im Markt ein Bedarf für Online-Authentifizierungen besteht. Diese durch verbesserte Identitätsdokumente und KI-basierte Unterstützung abzusichern – hierzu können unsere Projektergebnisse einen Beitrag leisten. Der Vorteil einer solchen Lösung: Experten und auch nicht geschultes Personal können nutzerspezifisch unterstützt werden.

Das heißt, auch private Internetnutzerinnen und -nutzer können von Ihrem Projekt profitieren, um zum Beispiel Desinformation besser zu erkennen?

Rabeler: Die Bildqualität der Deep-Fake-Generatoren verbessert sich stetig. Vor einigen Jahren waren Deep-Fakes von geschultem Personal häufig leicht zu erkennen. Inzwischen gilt dies aufgrund der hohen Bildqualität nicht mehr. Beim Projekt „Fake-ID“ wollen wir eine Demonstrator-Anwendung entwickeln, die sowohl beruflichen wie privaten Anwendern Hinweise auf das Vorliegen eines Fakes liefern.

Sollten die Detektoren Verdachtsmomente finden, werden diese dem menschlichen Anwender visualisiert – und zwar in Form einer von uns als Risiko- und Verdachtslandkarte bezeichneten Hilfe. Dabei wird eine sogenannte „schwache“ KI genutzt, um menschliches Handeln zu unterstützen, nicht zu ersetzen. Die Verdachtslandkarte soll formal relevante Merkmale von Original und möglicher Fälschung beinhalten. Über Mechanismen, wie ein Ampelfarbensystem, sollen die identifizierten Verdachtsmomente dem menschlichen Entscheider je nach Relevanz kommuniziert werden, um die KI-basierte Einteilung – echt oder möglicherweise gefälscht – für den Menschen nachvollziehbar zu machen.

Wie lange läuft das Projekt noch?

Herrmann: Das Projekt „Fake-ID“ lief bis Ende April und wurde kostenneutral bis Ende Oktober dieses Jahres verlängert. Aufgrund der hohen Dynamik der Entwicklungen in der KI besteht insbesondere seitens der Partner der Wunsch, die Arbeiten weiterzuführen. Zunächst sollen die Ergebnisse der Anwendertests abgewartet werden, um die nächsten Schritte zu planen.

Interview: Deep Fakes erkennen mit KI | Bundesregierung (2024)

FAQs

How to detect deep fakes? ›

DeepFakes are often incongruent on some dimensions. Pay attention to the eyes and eyebrows. Do shadows appear in places that you would expect? DeepFakes often fail to fully represent the natural physics of a scene.

How do I know if a photo is a deepfake? ›

Here are a few tips for recognizing an image that may have been generated with AI:
  1. Look for missing or extra fingers, or hands that are deformed in some way.
  2. Look at the faces. Small faces are often distorted.
  3. Look for misspelled text in the image.
  4. Look for inconsistent reflections.

Is it illegal to search deepfake? ›

Downloading deepfakes isn't universally illegal but becomes so when the content violates laws, such as p*rnographic deepfakes created without the consent of the individual featured. Furthermore, downloading copyrighted material can lead to accusations of copyright infringement.

How to spot AI fakes? ›

How to identify AI-generated videos
  1. Look out for strange shadows, blurs, or light flickers. In some AI-generated videos, shadows or light may appear to flicker only on the face of the person speaking or possibly only in the background. ...
  2. Unnatural body language. This is another AI giveaway. ...
  3. Take a closer listen.

How to tell if a picture is AI generated? ›

Another sure-fire way of identifying an AI image is checking if it looks a little too perfect. AI images often lack details that can be found in real pictures, leading to these photos having an 'airbrushed' look.

How to detect AI-generated faces? ›

Facial Features: Faces generated by AI can sometimes appear slightly off. This can include oddities in the eyes (like reflections or iris shape), ears, or hair. These features are often subtly surreal or unnaturally symmetrical/asymmetrical.

How to counter deepfakes? ›

To combat such abuses, technologies can be used to detect deepfakes or enable authentication of genuine media. Detection technologies aim to identify fake media without needing to compare it to the original, unaltered media. These technologies typically use a form of AI known as machine learning.

Do deepfake detectors work? ›

Conversely, Pindrop's deepfake detection technology has a 99% success rate.

What is the algorithm used to detect deepfakes? ›

The algorithm used for Deepfake detection is CNN. For detection of faces from video frames, in the pre-processing stage, a Dlib classifier is used which will be used to detect face landmarks. For e.g. the face according to Dlib has coordinates (49,68). In this way, the coordinates of eyebrows, nose, etc can be known.

Can you spot AI images test? ›

How can you tell if an image is AI generated? Close examination of intricate details such as reflections, shadows, and textures can reveal inconsistencies or anomalies that are not typically found in natural images. AI-generated images often struggle with complex patterns or the nuanced interplay of light and shadow.

Top Articles
WHISKER LITTER-ROBOT 4 INSTRUCTION MANUAL Pdf Download
Crispy, Chewy Oatmeal Cookies | The Best Oatmeal Cookies
Fan Van Ari Alectra
Swimgs Yuzzle Wuzzle Yups Wits Sadie Plant Tune 3 Tabs Winnie The Pooh Halloween Bob The Builder Christmas Autumns Cow Dog Pig Tim Cook’s Birthday Buff Work It Out Wombats Pineview Playtime Chronicles Day Of The Dead The Alpha Baa Baa Twinkle
Lexi Vonn
Robot or human?
Hawkeye 2021 123Movies
Obituary (Binghamton Press & Sun-Bulletin): Tully Area Historical Society
Victoria Secret Comenity Easy Pay
How Far Is Chattanooga From Here
Produzione mondiale di vino
New Day Usa Blonde Spokeswoman 2022
Deshret's Spirit
Chile Crunch Original
Nashville Predators Wiki
Kitty Piggy Ssbbw
Kp Nurse Scholars
Where to Find Scavs in Customs in Escape from Tarkov
1773X To
Axe Throwing Milford Nh
Wausau Marketplace
Mikayla Campinos Laek: The Rising Star Of Social Media
Curry Ford Accident Today
Persona 5 Royal Fusion Calculator (Fusion list with guide)
Chase Bank Pensacola Fl
Dulce
Menus - Sea Level Oyster Bar - NBPT
All Obituaries | Gateway-Forest Lawn Funeral Home | Lake City FL funeral home and cremation Lake City FL funeral home and cremation
C&T Wok Menu - Morrisville, NC Restaurant
Dewalt vs Milwaukee: Comparing Top Power Tool Brands - EXTOL
Roane County Arrests Today
Inkwell, pen rests and nib boxes made of pewter, glass and porcelain.
Klsports Complex Belmont Photos
Grave Digger Wynncraft
Die wichtigsten E-Nummern
Ancestors The Humankind Odyssey Wikia
Tendermeetup Login
Helloid Worthington Login
Bimar Produkte Test & Vergleich 09/2024 » GUT bis SEHR GUT
AI-Powered Free Online Flashcards for Studying | Kahoot!
Pitchfork's Top 200 of the 2010s: 50-1 (clips)
Dynavax Technologies Corp (DVAX)
Skill Boss Guru
San Bernardino Pick A Part Inventory
Neil Young - Sugar Mountain (2008) - MusicMeter.nl
Waco.craigslist
Strange World Showtimes Near Marcus La Crosse Cinema
Google Flights Missoula
Sleep Outfitters Springhurst
Deshuesadero El Pulpo
Besoldungstabellen | Niedersächsisches Landesamt für Bezüge und Versorgung (NLBV)
Asisn Massage Near Me
Latest Posts
Article information

Author: Greg O'Connell

Last Updated:

Views: 5754

Rating: 4.1 / 5 (62 voted)

Reviews: 93% of readers found this page helpful

Author information

Name: Greg O'Connell

Birthday: 1992-01-10

Address: Suite 517 2436 Jefferey Pass, Shanitaside, UT 27519

Phone: +2614651609714

Job: Education Developer

Hobby: Cooking, Gambling, Pottery, Shooting, Baseball, Singing, Snowboarding

Introduction: My name is Greg O'Connell, I am a delightful, colorful, talented, kind, lively, modern, tender person who loves writing and wants to share my knowledge and understanding with you.