Face recognition and verification systems are widely employed in various applications,
from smartphones and security systems to payment and remote healthcare services,
demonstrating high accuracy. However, a common method to spoof these systems
involves presenting a different person's face using tools such as masks, printouts, or
monitors instead of the actual user's face. In recent years, similar to advancements in
other computer vision tasks, deep neural networks have been developed to effectively
combat image forgery in face recognition systems. These models are expected to
accurately detect diverse forgery techniques and be resilient to adversarial attacks on
input images. This study investigates the robustness of DGUA-FAS, a state-of-the-art
image forgery detection model, against adversarial attacks. Adversarial examples are
generated using a black-box adversarial attack generation method based on MIO
algorithm, to mislead the DGUA-FAS model. Experimental results demonstrate that the
DGUA-FAS model misclassifies all attacked images. The findings highlight the
necessity for developing face forgery detection models that are more resilient to
adversarial attacks.
Günümüzde yüz tanıma ve doğrulama sistemleri akıllı telefonlardan güvenlik sistemlerine, ödeme uygulamalarından uzaktan sağlık uygulamalarına kadar birçok alanda yüksek doğrulukla kullanılmaktadır. Yüz tanıma sistemlerini yanıltmanın en yaygın yolu kişinin sisteme kendi yüzü yerine maske, yazıcı çıktısı ya da monitör gibi araçlarla başka birinin yüzünü sunmasıdır. Son yıllarda birçok bilgisayarla görme uygulamasında olduğu gibi yüz tanıma sistemlerinde görüntü sahteciliğini önleme amacıyla da oldukça başarılı derin sinir ağı modelleri geliştirilmiştir. Bu modellerin farklı sahtecilik yöntemlerini hassas bir şekilde tespit edebilmesi ve girdi görüntülere uygulanacak saldırılara karşı dayanıklı olması beklenmektedir. Bu çalışmada güncel ve başarılı bir görüntü sahteciliği tespit modeli olan DGUA-FAS'ın çekişmeli saldırılara karşı dayanıklılığı araştırılmaktadır. Bu amaçla MIO algoritmasına dayalı kara kutu çekilmeli saldırı üretme yöntemi ile DGUA-FAS modelini yanıltmak amacıyla çekişmeli örnek görüntüler üretilmektedir. Deneysel çalışmalar, DGUA-FAS modelinin saldırı uygulanan tüm görüntüleri hatalı şekilde sınıflandırdığını göstermektedir. Elde edilen sonuçlar, yüz sahteciliği tespit modellerinin çekişmeli saldırılara karşı daha dayanıklı hale gelmesi gerektiğini göstermektedir.