Vorausgesetzt, dass in den betreffenden Medien keine Artefakte und unnatürlichen Elemente vorhanden sind und die Medien für das menschliche Auge nicht unterscheidbar sind, besteht die einzige Möglichkeit, dies zu tun, darin, auf die Quelle der Bilder zurückzugehen.
Eine Analogie kann zu DoS-Angriffen (Denial of Service) gezogen werden, bei denen eine absurde Anzahl von Anforderungen von einer einzelnen IP-Adresse an einen einzelnen Server gesendet wird, wodurch dieser abstürzt Die IP-Adresse wird auf einen Täuschungsserver umgeleitet, auf dem die Betriebszeit trotz eines Absturzes nicht beeinträchtigt wird. Einige Untersuchungen wurde auf diesen Linien durchgeführt , wo das Papier sprach über die digitale Signatur eines Bildes zu überprüfen oder diese ein , wo sie manipulierten Bilderkennung und Quelle Kamera Identifizierung vorgeschlagen.
Wenn eine absurde Anzahl potenziell gefälschter Bilder von einer einzelnen Quelle stammt, ist dies zu hinterfragen, sobald sie auf eine Quelle zurückgeführt wurden.
Die häufigste Befürchtung entsteht, wenn wir uns auf der Grundlage der Analogie mit etwas befassen, wie einem DDoS-Angriff (Distributed Denial of Service), bei dem jede gefälschte Anforderung von einer verteilten Quelle stammt - Network Security hat Möglichkeiten gefunden, damit umzugehen, aber mit Sicherheit und Betrugserkennung in Bezug auf AI ist einfach nicht so etabliert.
Grundsätzlich ist es heutzutage sehr schwierig, ein durchdachtes künstliches Medium für einen bestimmten böswilligen Zweck zu finden. Derzeit wird jedoch an der Sicherheit der KI gearbeitet. Wenn Sie vorhaben, künstliche Datenträger für böswillige Zwecke zu verwenden, ist jetzt wahrscheinlich der beste Zeitpunkt.
Diese Sicherheit ist seit einiger Zeit ein Problem. Ein von einem Datenwissenschaftler verfasster Artikel zitiert
Deepfakes wurden bereits verwendet, um Frauen durch gefälschte Pornovideos zu belästigen und zu demütigen. Der Begriff stammt eigentlich vom Benutzernamen eines Reddit-Benutzers, der diese Videos durch den Aufbau generativer gegnerischer Netzwerke (GANs) mit TensorFlow erstellt hat. Jetzt sprechen Geheimdienstbeamte über die Möglichkeit, dass Wladimir Putin gefälschte Videos verwendet, um die Präsidentschaftswahlen 2020 zu beeinflussen. Deepfakes als Bedrohung für die Demokratie und die nationale Sicherheit sowie deren Aufdeckung werden weiter erforscht.
Hinweis - Ich habe keine Ahnung von der Netzwerksicherheit, mein gesamtes Wissen stammt aus einem Gespräch mit einem Freund und dachte, dies wäre eine gute Analogie, um sie hier zu verwenden. Verzeihen Sie etwaige Fehler in der Analogie und korrigieren Sie sie, wenn möglich!
Die Techniken, die Sie erwähnen, verwenden GANs. Die Schlüsselidee von GANs ist, dass Sie einen Generator und einen Diskriminator haben. Der Generator generiert neuen Inhalt, der Diskriminator muss feststellen, ob der Inhalt aus den realen Daten stammt oder ob er generiert wurde.
Der Diskriminator ist viel mächtiger. Es sollte nicht zu schwierig sein, einen Diskriminator für die Erkennung von Fälschungen zu schulen. Es ist schwieriger, ein Modell zu trainieren, das die Manipulation genau erkennen und verstehen kann, dass dies ein Beweis für Manipulation ist. Es ist unmöglich, einen Beweis dafür zu erhalten, dass etwas nicht manipuliert wird.
Über die Frage, wie Sie mit photoshopped Bildern umgehen: Sie betrachten Unterschiede in der Komprimierungsstufe im Bild. Das Schlüsselwort, nach dem gesucht werden muss, lautet image forensics: http://fotoforensics.com/tutorial-estq.php
quelle