우사이먼 교수 연구실(DASH Lab), Euro S&P 2025 논문 1편 게재 승인
- 인공지능학과
- 조회수279
- 2025-02-28
[연구] 우사이먼 교수 연구실(DASH Lab), Euro S&P 2025 논문 1편 게재 승인
Data-driven AI & Security HCI Lab (DASH Lab, 지도교수: 우사이먼 성일)의 논문 1편이 컴퓨터 보안 및 프라이버시 분야의 세계적인 우수 국제 학회인 IEEE European Symposium on Security and Privacy (EuroS&P)에 게재 승인되었습니다. 논문은 올해 6월 이탈리아 베니스에서 발표될 예정입니다. Acceptance rate = 8% (24 paper accepted / 300 submissions)
SoK: Systematization and Benchmarking of Deepfake Detectors in a Unified Framework, EuroS&P 2025
저자: 김지원 (2저자, 인공지능대학원 석사졸업), 우사이먼성일 (교신저자, 성균관대 인공지능대학원 교수)
논문 링크: https://arxiv.org/abs/2401.04364
이 연구는 호주 연방과학산업연구기구(CSIRO Data61)와 국제공동연구로 진행되었습니다.
최근 딥페이크 기술이 발전하면서 이에 대한 탐지 연구가 활발히 진행되고 있습니다. 하지만 많은 딥페이크 탐지기들은 한계가 명확했었습니다. 본 연구는 최신 딥페이크 탐지 연구를 종합적으로 검토하고, 체계적인 탐지기 평가를 위한 엔드 투 엔드 개념적 프fgfsdfg레임워크를 제안하여 딥페이크 탐지 기법을 세부적으로 분류하고 평가할 수 있는 명확한 기준을 제공합니다. 또한, 체계적인 평가 프레임워크를 통한 분석 및 실험과 함께 다양한 유의미한 결론을 도출하며, 보다 효과적인 미래의 딥페이크 탐지 기술 개발을 위한 새로운 관점을 제시합니다.
[Research] One paper accepted at EuroS&P 2025 from Professor Simon S Woo's (DASH Lab)
The Data-driven AI & Security HCI Lab (DASH Lab, Advisor: Simon S. Woo) has had one System of Knowledge (SoK) paper accepted for publication at the 10th IEEE European Symposium on Security and Privacy (Euro S&P), a prestigious international conference covers Machine Learning Security, System & Network Security, Cryptographic Protocols, Data Privacy. The papers will be presented in July in Venice, Italy.
SoK: Systematization and Benchmarking of Deepfake Detectors in a Unified Framework, EuroS&P 2025
Authors: Binh Le, Jiwon Kim, Simon S. Woo
This work is jointly performed with CSIRO Data61 as an international collaboration.
Paper Link: https://arxiv.org/abs/2401.04364
Deepfakes are becoming a huge problem, and they're easier than ever to create and spread. This has led to a race to develop technologies that can detect them. However, many of these detection tools are trained on lab-generated datasets, which may not prepare them for the deepfakes we actually see in the real world.
Our latest study takes a deep dive into the current state of deepfake detection. We categorize detectors into 4 major groups and 13 sub-groups, creating a clear framework to understand what makes them effective (or not). We also put 16 of the top detectors to the test against various real-world attack scenarios, including black-box, white-box, and gray-box settings. Our systematized analysis and experiments provide a deeper understanding of deepfake detectors and their generalizability, paving the way for future research and the development of more proactive defenses against deepfakes.