defame Fakes
Detektion von Deepfakes und medialen Manipulationen von Bildern und Videos
Kooperatives F&E-Projekt finanziert im Sicherheitsforschungs-Förderprogramm KIRAS des Bundesministeriums für Finanzen
Im F&E-Vorhaben defame Fakes beschäftigen wir uns mit der Erkennung von Deepfakes und medialen Manipulationen
Erforschung und Entwicklung von Assessment-Werkzeugen zur Erkennung von Deepfakes
Konzeptionierung und Initiierung von gesamtgesellschaftlichen Awareness-Maßnahmen
Analyse von Bedrohungsszenarien, gesellschaftlichen, ethischen und rechtlichen Implikationen
Wieso benötigt es defame Fakes?
Ob DALL E 3, Gesichtsfilter auf TikTok und Instagram oder DeepFaceLab: Technologien, die die Manipulation von Videos und Bildern ermöglichen, boomen, sind zunehmend einfacher zugänglich und markieren für viele Menschen einen Wendepunkt, wenn es um das Vertrauen in digitale Inhalte geht. Wie erkennen, was echt ist, wenn die Fakes immer realistischer sind? Von Behörden und Verwaltung über Medienorganisationen und der Privatwirtschaft bis hin zur Zivilgesellschaft sind alle mit den Herausforderungen und Gefahren durch Deepfakes konfrontiert – zum Beispiel als Bedrohung im Bereich Cybercrime , aber auch wenn es um demokratische Prozesse geht.
Im kooperativen F&E-Vorhaben defame Fakes beschäftigen wir uns daher mit der Erkennung von Deepfakes und Manipulationen in digitalen Bild- und Videoinhalten und initiieren Awareness-Maßnahmen. Ziel ist es, der kontinuierlichen Aushöhlung des Vertrauens in digitale Inhalte entgegenzuwirken, die technologischen Fähigkeiten zur Erkennung von Bild- und Videomanipulationen zu stärken und dadurch Unternehmen und die Gesellschaft zu schützen.
Was macht defame Fakes?
Die Aktivitäten des Forschungsprojekts reichen von der Generierung einer Datensammlung für die Erforschung von Assessment-Werkzeugen, über die Bewertung der Bedrohungsszenarien und daraus resultierenden Anforderungen, hin zur iterativen Konzeption von präventiven sowie reaktiven Maßnahmen. Der Fokus liegt auf den folgenden drei Kernbereichen:
- Die Erforschung und Entwicklung geeigneter und verständlicher Assessment-Werkzeuge zur Erkennung von Deepfakes und Manipulationen in großen Sammlungen digitaler Bild- und Videoinhalte.
- Die Konzeption und Initiierung von präventiven Awareness-Maßnahmen in der Gesellschaft, um auch die nationale Umsetzung des „Aktionsplan Deepfake“ unter enger Einbindung von Behörden, Medien, GSK-Partnern und relevanten anderen Stakeholdern zu unterstützen und damit letztlich Maßnahmen zur Wissens- und Bewusstseinsbildung zu setzen.
- Die Analyse der Bedrohungsszenarien, der gesellschaftlichen, ethischen und rechtlichen Implikationen von Deepfakes und des damit zusammenhängenden Regulierungsbedarfs.