우사이먼성일 교수 연구실 (DASH연구실), NeurIPS 2025 논문 2편 게재 승인
- 인공지능학과
- 조회수423
- 2025-10-13
DASH연구실 (지도교수: 우사이먼성일)의 논문이 인공지능 분야 우수학회인 NeurIPS2025 (The Thirty-Ninth Annual Conference on Neural Information Processing Systems)에 2편 논문이 게재 승인(Accept) 되었습니다. 논문은 25년 12월 샌디에고 컨벤션 센터에서 발표될 예정입니다.
1. 논문 “Through the Lens: Benchmarking Deepfake Detectors Against Moiré-Induced Distortions”은 소프트웨어학과 Razaib Tariq(소프트웨어학과 박사과정, 공동 제1저자), 인공지능학과 허민지(인공지능학과 석사졸업생, 공동 제1저자), Shahroz Tariq(CSIRO, Data61) 연구원이 저자로 참여했습니다. (교신저자: 우사이먼성일 교수) (Datasets and Benchmarks Track)
본 연구에서는 스마트폰으로 디지털 화면을 촬영할때 발생하는 모아레(Moiré) 아티팩트가 딥페이크 탐지 성능을 저하한다는 문제를 다룹니다. 이를 위해 모아레패턴이 포함된 동영상에 대해 최신 딥페이크 탐지 모델들을 체계적으로 평가하였습니다. Celeb-DF, DFD, DFDC, UADFV, FF++에서 총 12,832개(35.64시간 분량)의 영상을 수집하고, 다양한 디스플레이 스크린, 스마트폰 기종, 조명유무, 카메라 각도 등 실제 사용 조건을 폭넓게 반영하였습니다. 또한 모아레 패턴의 영향을 정밀하게 분석하기 위해, 자체 구축한 DeepMoiréFake(DMF) 데이터셋과 두 가지 합성 모아레 생성 기법을 활용해 추가 실험을 수행했습니다. 실험 결과, 15개의 탐지 모델 전반에서 모아레 아티팩트로 인해 성능이 최대 25.4%까지 저하되었고, 합성 모아레 역시 정확도를 21.4% 감소시켰습니다. 더욱이 완화 방안으로 사용되는 디모아레(모아레 제거) 기법은 오히려 문제를 악화시켜 정확도를 최대 16%까지 낮추는 것으로 나타났습니다. 이러한 결과는 압축, 샤프닝, 블러링 등 다른 현실적 변동 요인과 함께 모아레 왜곡에 견고한 탐지 모델의 필요성을 강조합니다. 본 연구는 DMF 데이터셋을 제시함으로써, 통제된 실험 환경과 실제 딥페이크 탐지 환경 사이의 격차 해소를 위한 벤치마크를 제공합니다.
Deepfake detection remains a pressing challenge, particularly in real-world settings where smartphone-captured media from digital screens often introduces Moiré artifacts that can distort detection outcomes. This study systematically evaluates state-of-the-art (SOTA) deepfake detectors on Moiré-affected videos—an issue that has received little attention. We collected a dataset of 12,832 videos, spanning 35.64 hours, from Celeb-DF, DFD, DFDC, UADFV, and FF++ datasets, capturing footage under diverse real-world conditions, including varying screens, smartphones, lighting setups, and camera angles. To further examine the influence of Moiré patterns on deepfake detection, we conducted additional experiments using our DeepMoiréFake, referred to as (DMF) dataset, and two synthetic Moiré generation techniques. Across 15 top-performing detectors, our results show that Moiré artifacts degrade performance by as much as 25.4%, while synthetically generated Moiré patterns lead to a 21.4% drop in accuracy. Surprisingly, demoiréing methods, intended as a mitigation approach, instead worsened the problem, reducing accuracy by up to 16%. These findings underscore the urgent need for detection models that can robustly handle Moiré distortions alongside other real-world challenges, such as compression, sharpening, and blurring. By introducing the DMF dataset, we aim to drive future research toward closing the gap between controlled experiments and practical deepfake detection.

2. 논문 “RUAGO: Effective and Practical Retain-Free Unlearning via Adversarial Attack and OOD Generator”은 소프트웨어학과 이상용(소프트웨어학과 박사과정, 제1저자), 인공지능학과 정상준(인공지능학과 석사과정, 제2저자)연구원이 저자로 참여했습니다. (교신저자: 우사이먼성일 교수) (Main Track)
본 연구에서는 머신 언러닝 분야에서 보존 데이터(retain data)에 접근할 수 없는 환경에서 모델이 특정 데이터를 효과적으로 잊도록 하는 문제를 다루었습니다. 일반적으로 언러닝 과정에서는 잊어야 할 데이터(forget data)를 제거하면서 나머지 데이터의 성능을 유지해야 하지만, 보존 데이터에 접근하지 못할 경우 모델의 성능 저하가 심각하게 발생합니다. 이를 해결하기 위해서 RUAGO(Retain-free Unlearning via Adversarial attack and Generative model using OOD traning)라는 새로운 프레임워크를 제안합니다.
RUAGO는 세 가지 핵심 요소를 통해 안정적이고 효과적인 언러닝을 달성합니다. 첫째, Adversarial Probability Module (APM)을 통해 forget data에 대해 단일 클래스(one-hot) 레이블 대신 soft label 기반 adversarial 확률을 사용하여 과도한 언러닝을 방지합니다. 둘째, Out-of-Distribution (OOD) 데이터로 학습된 생성 모델을 활용하여 보존 데이터 없이도 원본 모델의 지식을 보존합니다. 이때 생성된 합성 데이터는 모델의 내부 표현에 근접하도록 모델 인버전(model inversion) 과정을 거쳐 정제됩니다. 셋째, Sample Difficulty Scheduler를 도입하여 쉬운 샘플에서 어려운 샘플로 점진적으로 학습하는 Curriculum Learning 기반 지식 증류 전략을 적용했습니다. 이를 통해 학습 초기의 안정성과 후반의 일반화 성능을 동시에 확보하였습니다
CIFAR-10, CIFAR-100, TinyImageNet, VGGFace2 등의 다양한 데이터셋을 대상으로 실험한 결과, RUAGO는 기존 retain-free 방법들을 크게 능가하며, 보존 데이터를 사용하는 최신 방법들과도 동등하거나 더 우수한 성능을 달성했습니다. 특히 Membership Inference Attack (MIA) 평가에서도 재학습 모델과 유사한 수준의 개인정보 보호 효과를 보여, 정확도와 프라이버시를 동시에 만족하는 효과적인 언러닝 방법임을 입증했습니다
This paper addresses the problem of enabling a model to effectively forget specific data in scenarios where access to the retain data is unavailable in the field of machine unlearning. In general, the unlearning process aims to remove the forget set while maintaining the performance of the retain set. However, when the retain data is inaccessible, the model often suffers from severe performance degradation. To address this challenge, we propose a novel framework called RUAGO (Retain-free Unlearning via Adversarial attack and Generative model using OOD training).
RUAGO achieves stable and effective unlearning through three key components. First, the Adversarial Probability Module (APM) mitigates over-unlearning by replacing one-hot labels with soft-label-based adversarial probabilities for the forget data. Second, a generator trained on Out-of-Distribution (OOD) data is employed to preserve the original model’s knowledge without requiring access to the retain data. The synthetic samples generated from the OOD data are further refined through a model inversion process to better align with the internal representations of the model. Third, the Sample Difficulty Scheduler introduces a Curriculum Learning-based knowledge distillation strategy that gradually transitions from easy to hard samples, ensuring both early-stage stability and improved generalization in later training stages.
Extensive experiments on diverse datasets on CIFAR-10, CIFAR-100, TinyImageNet, and VGGFace demonstrate that RUAGO significantly outperforms existing retain-free approaches and achieves performance comparable to or better than state-of-the-art retain-based methods. Moreover, evaluation under the Membership Inference Attack (MIA) shows that RUAGO provides a privacy protection level similar to that of retrained model, demonstrating its effectiveness in achieving both high accuracy and strong privacy preservation simultaneously.
Feel free to contact us at: https://dash-lab.github.io/
swoo@g.skku.edu



