Welche Taktiken gibt es, um künstlich hergestellte Medien zu erkennen?


12

Mit der wachsenden Fähigkeit, preiswerte gefälschte Bilder, gefälschte Soundbites und gefälschte Videos zu erstellen, steigt das Problem, zu erkennen, was real ist und was nicht. Sogar jetzt sehen wir eine Reihe von Beispielen für Anwendungen, die für geringe Kosten gefälschte Medien erstellen (siehe Deepfake , FaceApp usw.).

Wenn diese Anwendungen falsch verwendet werden, können sie offensichtlich dazu verwendet werden, das Image einer anderen Person zu beeinträchtigen. Deepfake kann verwendet werden, um eine Person ihrem Partner untreu erscheinen zu lassen. Eine andere Anwendung könnte verwendet werden, um den Eindruck zu erwecken, als hätte ein Politiker etwas Kontroverses gesagt.

Mit welchen Techniken können künstlich hergestellte Medien erkannt und vor ihnen geschützt werden?

Antworten:


2

Forensik digitaler Medien (DMF) zielt darauf ab, Technologien für die automatisierte Bewertung der Integrität eines Bildes oder Videos zu entwickeln. Daher ist DMF der Bereich, den Sie suchen. Bei DMF gibt es mehrere Ansätze: Zum Beispiel solche, die auf Techniken des maschinellen Lernens (ML) basieren, insbesondere auf CNNs (Convolutional Neural Networks).

Zum Beispiel schlagen David Güera und Edward J. Delp in der Veröffentlichung Deepfake Video Detection Using Recurrent Neural Networks (2018) eine zweistufige Analyse vor, die aus einem CNN besteht, um Merkmale auf Frame-Ebene zu extrahieren, gefolgt von einem zeitbewussten RNN, das erfasst werden soll zeitliche Inkonsistenzen zwischen Frames, die mit dem Deepfake-Tool eingeführt wurden. Insbesondere verwenden sie eine konvolutionelle LSTM-Architektur (CNN in Kombination mit einem LSTM), die durchgängig trainiert wird, sodass der CNN die Merkmale in den Videos lernt, die an den RNN weitergeleitet werden, der versucht, die Wahrscheinlichkeit vorherzusagen von jenen Eigenschaften, die zu einem gefälschten Video gehören oder nicht. In Abschnitt 3 wird die Erstellung von Deepfake-Videos erläutert, die zu Inkonsistenzen zwischen Videoframes führen (die im vorgeschlagenen Verfahren ausgenutzt werden) wegen der Verwendung von Bildern mit unterschiedlichen Betrachtungs- und Beleuchtungsbedingungen.

Andere ähnliche Arbeiten wurden vorgeschlagen. Weitere verwandte Artikel finden Sie in dieser kuratierten Liste unter https://github.com/aerophile/awesome-deepfakes .


1

Ich denke, dass der Kontext hier wichtig ist. Die Taktik, wie sie Scotland Yard seit über einem Jahrhundert einsetzt, ist wahrscheinlich die beste Methode. Etablierung von Alibis, realistischen Zeitplänen, Motiven. Aus rechtlichen Gründen könnte mit diesen Methoden nachgewiesen werden, dass diese Bilder gefälscht sind. Aus IT-Sicht ist es möglicherweise möglich, einen Ursprung für diese Bilder zu bestimmen. Wenn Tausende von doppelten Bildern von einem einzigen Ursprung stammen, sind alle Bilder von diesem Ursprung verdächtig.

Ich denke, im Allgemeinen sollten wir uns umbilden, um nicht alles zu glauben, was wir sehen. Es gibt so viele Methoden, um Bilder zu fälschen, dass die Fotografie nicht mehr als der beste Beweis für das Auftreten eines Ereignisses angesehen werden kann. Wir sollten nicht alle Bilder ignorieren, sondern nach Fakten suchen, bevor wir zu Schlussfolgerungen gelangen. Wenn alle Fakten auf ein Ereignis hindeuten, ist dieses Foto wahrscheinlich echt.


0

Vorausgesetzt, dass in den betreffenden Medien keine Artefakte und unnatürlichen Elemente vorhanden sind und die Medien für das menschliche Auge nicht unterscheidbar sind, besteht die einzige Möglichkeit, dies zu tun, darin, auf die Quelle der Bilder zurückzugehen.

Eine Analogie kann zu DoS-Angriffen (Denial of Service) gezogen werden, bei denen eine absurde Anzahl von Anforderungen von einer einzelnen IP-Adresse an einen einzelnen Server gesendet wird, wodurch dieser abstürzt Die IP-Adresse wird auf einen Täuschungsserver umgeleitet, auf dem die Betriebszeit trotz eines Absturzes nicht beeinträchtigt wird. Einige Untersuchungen wurde auf diesen Linien durchgeführt , wo das Papier sprach über die digitale Signatur eines Bildes zu überprüfen oder diese ein , wo sie manipulierten Bilderkennung und Quelle Kamera Identifizierung vorgeschlagen.

Wenn eine absurde Anzahl potenziell gefälschter Bilder von einer einzelnen Quelle stammt, ist dies zu hinterfragen, sobald sie auf eine Quelle zurückgeführt wurden.

Die häufigste Befürchtung entsteht, wenn wir uns auf der Grundlage der Analogie mit etwas befassen, wie einem DDoS-Angriff (Distributed Denial of Service), bei dem jede gefälschte Anforderung von einer verteilten Quelle stammt - Network Security hat Möglichkeiten gefunden, damit umzugehen, aber mit Sicherheit und Betrugserkennung in Bezug auf AI ist einfach nicht so etabliert.

Grundsätzlich ist es heutzutage sehr schwierig, ein durchdachtes künstliches Medium für einen bestimmten böswilligen Zweck zu finden. Derzeit wird jedoch an der Sicherheit der KI gearbeitet. Wenn Sie vorhaben, künstliche Datenträger für böswillige Zwecke zu verwenden, ist jetzt wahrscheinlich der beste Zeitpunkt.

Diese Sicherheit ist seit einiger Zeit ein Problem. Ein von einem Datenwissenschaftler verfasster Artikel zitiert

Deepfakes wurden bereits verwendet, um Frauen durch gefälschte Pornovideos zu belästigen und zu demütigen. Der Begriff stammt eigentlich vom Benutzernamen eines Reddit-Benutzers, der diese Videos durch den Aufbau generativer gegnerischer Netzwerke (GANs) mit TensorFlow erstellt hat. Jetzt sprechen Geheimdienstbeamte über die Möglichkeit, dass Wladimir Putin gefälschte Videos verwendet, um die Präsidentschaftswahlen 2020 zu beeinflussen. Deepfakes als Bedrohung für die Demokratie und die nationale Sicherheit sowie deren Aufdeckung werden weiter erforscht.

Hinweis - Ich habe keine Ahnung von der Netzwerksicherheit, mein gesamtes Wissen stammt aus einem Gespräch mit einem Freund und dachte, dies wäre eine gute Analogie, um sie hier zu verwenden. Verzeihen Sie etwaige Fehler in der Analogie und korrigieren Sie sie, wenn möglich!


Es wäre schön, wenn Sie etwas recherchieren und einen Link zu mindestens 1 Forschungsarbeit / -arbeit bereitstellen könnten, die auf etwas in dieser Richtung basiert (dh die Quelle der potenziell gefälschten Videos ausnutzt).
Nr.

Abgesehen von Artikeln, die über die möglichen Schäden sprechen , und denen, die gewöhnlich versuchen, Artefakte zu entdecken, tun weniger Artikel, was in der Antwort wie dieser oder dieser angegeben ist - Wie bereits erwähnt, wurden diese Zeilen nicht ausführlich untersucht, aber es ist so erkundet werden. Hoffe diese Links haben geholfen!
Ashenoy

-1

Die Techniken, die Sie erwähnen, verwenden GANs. Die Schlüsselidee von GANs ist, dass Sie einen Generator und einen Diskriminator haben. Der Generator generiert neuen Inhalt, der Diskriminator muss feststellen, ob der Inhalt aus den realen Daten stammt oder ob er generiert wurde.

Der Diskriminator ist viel mächtiger. Es sollte nicht zu schwierig sein, einen Diskriminator für die Erkennung von Fälschungen zu schulen. Es ist schwieriger, ein Modell zu trainieren, das die Manipulation genau erkennen und verstehen kann, dass dies ein Beweis für Manipulation ist. Es ist unmöglich, einen Beweis dafür zu erhalten, dass etwas nicht manipuliert wird.

Über die Frage, wie Sie mit photoshopped Bildern umgehen: Sie betrachten Unterschiede in der Komprimierungsstufe im Bild. Das Schlüsselwort, nach dem gesucht werden muss, lautet image forensics: http://fotoforensics.com/tutorial-estq.php

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.