Zakładając, że artefakty i nienaturalne elementy nie istnieją w mediach, o których mowa, i że mediów nie można odróżnić od ludzkiego oka, jedynym sposobem, aby to zrobić, jest prześledzenie źródła zdjęć.
Analogię można wyciągnąć z ataku DoS (Denial of Service), w ramach którego absurdalna liczba żądań jest wysyłana z jednego adresu IP do jednego serwera, powodując awarię - powszechnym rozwiązaniem jest honeypot, w którym duża liczba żądań z jednego Adres IP jest przekierowywany na serwer wabika, gdzie nawet jeśli ulegnie awarii, czas pracy nie jest zagrożony. Przeprowadzono pewne badania na tych liniach, w których ten artykuł mówił o weryfikacji podpisu cyfrowego obrazu lub w tym, w którym zaproponowano sfałszowane wykrywanie obrazu i identyfikację kamery źródłowej.
Gdy absurdalna liczba potencjalnie fałszywych obrazów pochodzi z jednego źródła, należy je przesłuchać.
Powszechny strach pojawia się, gdy mamy do czynienia z czymś, na podstawie analogii, jak atak DDoS (Distributed Denial of Service), w którym każde fałszywe żądanie pochodzi z rozproszonego źródła - Network Security znalazł sposoby na poradzenie sobie z tym, ale bezpieczeństwo wykrywanie oszustw w zakresie sztucznej inteligencji po prostu nie jest ustalone.
Zasadniczo dla dobrze przemyślanych sztucznych nośników do określonego złośliwego celu, dziś trudno jest złapać - ale obecnie trwają prace nad bezpieczeństwem w AI. Jeśli planujesz używać sztucznych mediów do szkodliwych celów, powiedziałbym, że teraz jest najlepszy czas.
Od pewnego czasu obawy te budziły obawy. Artykuł napisany przez naukowców dane cytatów
Deepfakes były już wykorzystywane do nękania i poniżania kobiet za pomocą fałszywych filmów porno. Termin tak naprawdę pochodzi od nazwy użytkownika użytkownika Reddit, który tworzył te filmy, budując generatywne sieci przeciwników (GAN) za pomocą TensorFlow. Teraz urzędnicy wywiadu rozmawiają o możliwości wykorzystania przez Władimira Putina fałszywych filmów w celu wpłynięcia na wybory prezydenckie w 2020 roku. Prowadzone są dalsze badania nad połowami ryb jako zagrożeniem dla demokracji i bezpieczeństwa narodowego, a także sposobami ich wykrywania.
Uwaga - nie mam pojęcia o bezpieczeństwie sieci, cała moja wiedza pochodzi z jednej rozmowy z przyjacielem i pomyślałem, że byłoby to dobrą analogią do wykorzystania tutaj. Wybacz błędy w analogii i popraw je, jeśli to możliwe!
Wspomniane techniki wykorzystują sieci GAN. Kluczową ideą GAN jest to, że masz generator i dyskryminator. Generator generuje nową treść, dyskryminujący musi stwierdzić, czy treść pochodzi z rzeczywistych danych, czy też została wygenerowana.
Dyskryminator jest znacznie potężniejszy. Wyszkolenie dyskryminatora w wykrywaniu podróbek nie powinno być zbyt trudne. Szkolenie modelu, który jest w stanie precyzyjnie określić manipulację, a zrozumienie tego jest trudniejsze. Nie można uzyskać dowodu, że coś nie jest zmanipulowane.
O pytanie, jak radzisz sobie z obrazami w Photoshopie: patrzysz na różnice w poziomach kompresji obrazu. Szukanym słowem kluczowym jest obrazowanie sądowe: http://fotoforensics.com/tutorial-estq.php
źródło