Wir haben mit Intel über die DeepFake-Erkennungstechnologie FakeCatcher gesprochen

DeepFake ist mit der Entwicklung künstlicher Intelligenz und maschineller Lerntechnologien nahezu unentdeckbar geworden. Aus diesem Grund versuchen Unternehmen, einige Analysen zu entwickeln, um zu verstehen, ob diese Bilder und Visuals gefälscht sind.

Einer dieser Tests ist FakeCatcher, entwickelt von Unsur Demir, Senior Labour Research Scientist bei Intel Labs. Wir haben den Entwickler Unsur Demir nach dem neuen DeepFake-Erkennungstool gefragt.


Intel Labs Senior Labour Research Scientist Unsur Demir

Frage: Glauben Sie, dass DeepFake-Bilder eine Bedrohung für die Gesellschaft darstellen?

Die DeepFake-Bilder, die sich in den letzten Jahren im Internet verbreitet haben, haben zu Fehlinformationen und Verwirrung geführt. Die DeepFake-Technologie kann geschmacklos genutzt werden, um stark manipulierte Bilder zu erstellen, die lebensecht wirken.

Diese Bilder führen den Betrachter in die Irre und täuschen ihn, indem sie die Gesichts- und Stimmmerkmale echter Menschen imitieren. Es gibt mehrere Fälle, in denen DeepFake-Bilder zerstörerisch sind. Dazu gehören illegale Aktivitäten, Identitätsdiebstahl, Fälschung und Propaganda.

Frage: Können Sie einige Informationen zu FakeCatcher geben?

FakeCatcher ist ein DeepFake-Erkennungsalgorithmus, der Herzschläge als Hinweise auf die Echtheit realer Bilder verwendet.

Als weltweit erster Echtzeit-DeepFake-Detektor nutzt Intels DeepFake-Erkennungsplattform Intel-Hardware und -Software, um Ergebnisse in Millisekunden und nicht in Stunden oder Minuten zu liefern.

Frage: Was unterscheidet FakeCatcher von anderen Erkennungsalgorithmen? Wie funktioniert FakeCatcher?

Andere auf Deep Learning basierende Detektoren untersuchen Rohinformationen, um Anzeichen von Unechtheit zu finden und problematische Aspekte des Bildes zu identifizieren. FakeCatcher hingegen sucht in echten Bildern nach echten Hinweisen und wertet das aus, was uns menschlich macht, wie zum Beispiel bestimmte unbekannte Blutflüsse.

Wenn unser Herz Blut pumpt, ändern unsere Venen ihre Farbe. Diese Blutflusssignale werden im gesamten Gesicht gesammelt und Algorithmen wandeln diese Signale in räumlich-zeitliche Karten um. In dieser Form können wir mithilfe von Deep Learning sofort erkennen, ob ein Bild echt oder gefälscht ist.

Frage: Wurde die FakeCatcher-Technologie von Intel seit ihrer Veröffentlichung häufig verwendet?

Immer wenn ein neues virales Bild auftaucht, das falsche Informationen verbreitet, versuchen wir, die Leistung von FakeCatcher bei diesem Bild zu bewerten. Wir speichern nicht die genaue Anzahl der Bilder oder Abfragen, sie wurden jedoch seit ihrer Veröffentlichung in über 20 Interaktionen öffentlich und privat angezeigt.

Frage: Was macht die FakeCatcher-Technologie von Intel einzigartig?

Intels Echtzeitplattform liefert Ergebnisse in Millisekunden (30 Bilder pro Sekunde nach dem ersten 64-Frame-Segment) und nicht in ein paar Stunden oder Minuten. Dadurch entfällt die Notwendigkeit, große Bilddokumente auf eine DeepFake-Erkennungsseite hochzuladen und auf Ergebnisse zu warten.

Durch die Analyse von Dingen, die für das menschliche Auge unsichtbar sind, wie z. B. ein bestimmter vager „Blutfluss“ in den Pixeln eines Bildes, kann diese Software ungültige Bilder mit einer erstaunlichen Genauigkeit von 96 % erkennen. Im Vergleich zu den sieben weltweit führenden DeepFake-Detektoren mit komplexer neuronaler Architektur erzielt FakeCatcher eine Leistung von mehr als 8 % im Vergleich zum nächsten Anwendungsalgorithmus mit der reibungslosesten Leistung.

Frage: Stellt die Verwendung der FakeCatcher-Technologie von Intel ein potenzielles Risiko dar?

Wie bei jeder Technologie besteht immer ein gewisses Maß an potenziellem Risiko. Wenn es um echte Bilder mit sehr niedriger Auflösung geht, in denen PPG-Signale erheblich verzerrt sind, kann FakeCatcher den Fehler machen, sie als Fälschung zu identifizieren. Stark komprimierte oder niedrig aufgelöste Bilder verzerren zudem den Inhalt und machen es sowohl für Menschen als auch für Deepfake-Erkennungsalgorithmen schwierig, die notwendigen Informationen zu erhalten, um das Bild als gefälscht zu deklarieren. Allerdings sind falsche Feststellungen zu solchen Bildern nicht so verschwenderisch wie die Behauptung, ein gefälschtes Bild sei echt.

Frage: Kann FakeCatcher Vorurteile aufgrund von Rasse, Geschlecht und anderen Faktoren reduzieren?

Photoplethysmographiesignale werden in der Medizin seit langem zur Patientenfernüberwachung eingesetzt. Es gibt verschiedene Varianten von PPG. Wir sehen beispielsweise, dass GPPG-Signale bessere Ergebnisse bei Licht- und Bewegungsänderungen liefern, während chromPPG-Signale bei Hautfarbänderungen besser abschneiden. Daher kombinieren wir diese verschiedenen PPG-Signale, um genauere Ergebnisse zu erzielen und die Auswirkungen rassistischer Hautfarbunterschiede erfolgreich abzuschwächen.

Wir verfügen auch über einen Datensatz mit stabilen Tags, FakeCelebAV, in dem unsere Technologie die Stärke von PPG-Signalen über Geschlechter und Rassen hinweg bewertet. Mit diesem Wissenssatz wollen wir das Problem der Deepfake-Quellenerkennung überwinden. Wir fanden heraus, dass der Unterschied in der Erkennungsgenauigkeit zwischen Geschlecht oder Hautfarbe nicht signifikant war. Es ist nicht ungewöhnlich, dass Erkennungen auf asiatischen Gesichtern eine höhere Genauigkeit aufweisen als auf kaukasischen Gesichtern und umgekehrt.

Wir haben unsere Experimente zur Quellenerkennung, einem schwierigeren Problem, von dem wir sagen können, dass es der Betrugserkennung einen Schritt voraus ist, anhand des FakeAVCeleb-Informationssatzes durchgeführt. Ein Viertel dieses Informationssatzes enthält Deepfakes außerhalb des Geltungsbereichs, daher wurden die Genauigkeiten nur für Vergleiche in der mittleren Kategorie dokumentiert. Als Ergebnis unserer Experimente wurden die folgenden Echtheitserkennungsgenauigkeiten für verschiedene Geschlechter und Rassen ermittelt:

  • 82,64 % – Allgemein
  • 89,47 % – Afroamerikaner
  • 85 % – Kaukasier
  • 77,11 % – asiatisch
  • 81,63 % – männlich
  • 83,67 % – weiblich

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert