-
- [수상 소식] 김현진 학생, Star of Tomorrow Internship Program 선정
- 인공지능학과 박진영 교수님의 HLILab 소속 김현진 학생이 2025년 5월, Star of Tomorrow Internship Program에 선정되는 영예를 안았습니다. 김현진 학생은 2024년 9월부터 2025년 3월까지 Microsoft Research Asia에서 인턴십을 수행하며 우수한 연구 역량을 인정받아 본 프로그램에 선정되었습니다. 본 프로그램은 미래의 연구 리더로 성장할 잠재력을 지닌 인턴에게 수여되는 명예로운 상입니다. 김현진 학생의 뛰어난 성과를 진심으로 축하드리며, 앞으로의 연구 활동에도 큰 성취가 함께하길 기원합니다.
-
- 작성일 2025-05-21
- 조회수 845
-
- 정보 및 지능 시스템 연구실(지도교수:이지형) ACL 2025 논문 1편 게재 승인
- 정보 및 지능 시스템 연구실(지도교수:이지형)의 논문 1편이 자연어처리 분야의 최우수 국제학술대회인 ACL 2025 (“The 63rd Annual Meeting of the Association for Computational Linguistics”)에 게재 승인되었습니다. 논문은 7월 오스트리아 빈에서 발표될 예정입니다. 제목 : “DCG-SQL: Enhancing In-Context Learning for Text-to-SQL with Deep Contextual Schema Link Graph” 저자: 이지형*(인공지능학과 석사과정), 이진섭*(인공지능학과 석박통합과정), 이재훈(인공지능학과 석사과정), 최윤석 (성균관대 컴퓨터교육학과 조교수/소프트웨어학과 박사졸업) (*공동 1저자) “DCG-SQL: Enhancing In-Context Learning for Text-to-SQL with Deep Contextual Schema Link Graph” 논문에서는 자연어 문장을 SQL 쿼리로 변환하는 Text-to-SQL 태스크에서 효과적인 In-context Learning을 위한 예제 선택 기법을 제안합니다. In-context Learning은 소수의 예제를 활용하여 모델이 문제를 해결하도록 유도하는 방식이지만, 기존의 예제 선택 방법은 무작위 선택과 비교해 성능 차이가 크지 않으며, 특히 Llama 3.1-8B와 같은 소형 언어 모델에서는 성능이 크게 저하되는 한계를 보입니다. 이는 기존 방식들이 In-context Learning을 효과적으로 활용했다기보다는, 모델 자체의 내재적 능력에 의존해 성능을 얻었음을 시사합니다. 이러한 문제를 해결하기 위해, 본 연구는 질문과 데이터베이스 스키마 간의 핵심 정보와 문맥적 관계를 반영한 문맥 기반 스키마 연결 그래프를 활용하여, In-context Learning에 보다 적합한 예제를 선별하는 방법을 제안합니다. 다양한 Text-to-SQL 벤치마크 데이터셋에 대한 실험을 통해 초거대 언어 모델뿐만 아니라 소형 모델에서도 SQL 생성 성능을 향상시켜, 모델 규모에 관계없이 일관된 성능 개선과 실용적인 효과를 확인할 수 있었습니다. Abstract: Text-to-SQL, which translates a natural language question into an SQL query, has advanced with in-context learning of Large Language Models (LLMs). However, existing methods show little improvement in performance compared to randomly chosen demonstrations, and significant performance drops when smaller LLMs (e.g., Llama 3.1-8B) are used. This indicates that these methods heavily rely on the intrinsic capabilities of hyper-scaled LLMs, rather than effectively retrieving useful demonstrations. In this paper, we propose a novel approach for effectively retrieving demonstrations and generating SQL queries. We construct a Deep Contextual Schema Link Graph, which contains key information and semantic relationship between a question and its database schema items. This graph-based structure enables effective representation of Text-to-SQL samples and retrieval of useful demonstrations for in-context learning. Experimental results on the Spider benchmark demonstrate the effectiveness of our approach, showing consistent improvements in SQL generation performance and efficiency across both hyper-scaled LLMs and small LLMs.
-
- 작성일 2025-05-21
- 조회수 440
-
- 박호건 교수 연구실 (LearnData Lab)의 그래프 및 자연어 처리, 설명가능 AI 연구 ICML, AAAI, KDD 등의 학회에 8편 논문 게재 승인
- LearnData 연구실(지도교수: 박호건)은 ICML, AAAI, KDD, WWW, ACL, NAACL, PAKDD 등 인공지능 분야 최우수 국제학회(BK 국제 우수 컨퍼런스)의 Research Track에 총 8편의 논문을 Full Paper(long)에 주저자로 게재하였습니다. 1. 논문 “Self-supervised Adversarial Purification for Graph Neural Networks” 은 소프트웨어학과 이우현(석사재학생)이 저자로 게재하였습니다. (교신저자: 박호건 교수) - ICML 2025 Research track, Full paper (Long) 본 논문에서는 그래프 신경망(Graph Neural Networks; GNN)을 적대적 공격으로부터 보호하는 새로운 방법인 self-supervised adversarial purification 프레임워크를 소개합니다. 기존의 방법인 적대적 훈련(adversarial training)은 정확도와 견고성(robustness)을 함께 최적화하는 데 어려움이 있으며, 두 목표 사이의 갈등을 잘 해결하지 못하는 단점이 있습니다. 이 문제를 해결하기 위해 본 연구는 정확도와 견고성 목표를 명확히 분리하여 별도의 정화기(purifier)를 제안합니다. 이 정화기는 입력 데이터를 정화한 후 분류기로 전달하여 정확도는 분류기가, 견고성은 정화기가 각각 전문적으로 처리하도록 합니다. 이 정화기 모델로서 본 연구는 그래프 자동 인코더(Graph Auto-Encoder; GAE)에 일반화된GPR-GAE를 제안합니다. 실험을 통해 GPR-GAE가 다양한 데이터셋과 공격 시나리오에서 뛰어난 성능을 보이며, 기존의 방법들에 비해 월등히 높은 견고성을 달성함을 증명했습니다. 또한 별도의 설정 없이 기존의 다양한 GNN 분류기에 쉽게 적용할 수 있는 플러그 앤 플레이(plug-and-play) 방식의 정화 모듈로 활용할 수 있습니다. 2. 논문 “Self-supervised Adversarial Purification for Graph Neural Networks” 은 인공지능학과 강현주, 한건희(박사재학생)이 저자로 게재하였습니다. (교신저자: 박호건 교수) - AAAI 2025 Research track, Full paper (Long) 이 논문은 텍스트를 입력받아 소리를 생성하는 인공지능(TAG, Text-to-Audio Generation) 모델의 작동 원리를 설명하는 AudioGenX라는 방법을 제안합니다. AudioGenX는 생성된 오디오에서 각 입력 단어의 중요성을 시각화하여 사용자가 모델의 작동 방식을 이해할 수 있게 합니다. AudioGenX는 사실적(factual) 및 반사실적(counterfactual) 접근 방식을 사용하여 입력 텍스트에서 어떤 단어가 오디오 생성에 주요한 역할을 하는지를 분석하고, 이를 명확하게 시각적으로 제시합니다. 이 방법은 모델이 특정 단어나 표현을 어떻게 처리하는지 구체적으로 보여주며, 사용자가 오디오 생성 결과에 대한 이해와 편집을 보다 쉽게 할 수 있도록 돕습니다. 실험 결과, AudioGenX는 기존의 다른 설명 방법들보다 우수한 성능을 보였으며, 생성된 오디오에 대한 설명력과 신뢰성을 높였습니다. 결론적으로 AudioGenX는 사용자가 텍스트 기반 오디오 생성 모델의 내부 작동 과정을 보다 정확하게 이해하고 제어할 수 있도록 지원하는 효과적인 도구입니다. 3. 논문 “MAMS: Model-Agnostic Module Selection Framework for Video Captioning” 은 인공지능학과 이상호(석사졸업생)이 저자로 게재하였습니다. (공동 교신저자: 전일용, 박호건 교수) - AAAI 2025 Research track, Full paper (Long) – Oral (Top 6.1% paper) 이 논문은 동영상에 자동으로 설명을 붙이는 기술(비디오 캡셔닝)에 관한 것으로, MAMS(Model-Agnostic Module Selection)라는 새로운 프레임워크를 제안합니다. 비디오 캡셔닝은 영상 속 내용을 이해하고 적절한 문장으로 설명하는 인공지능 기술인데, 기존의 방법들은 모든 영상에 똑같은 개수의 프레임(영상 장면)을 사용해서 문제점이 있었습니다. MAMS 프레임워크는 각 영상의 특성에 따라 적절한 수의 프레임을 선택하고, 이를 바탕으로 크기가 다른 캡션 생성 모듈(큰 모듈과 작은 모듈) 중 하나를 선택하여 사용합니다. 또한, 각 프레임에서 중요한 시각 정보를 효과적으로 선별하여 불필요한 정보의 처리를 줄이고, 핵심 정보에 더욱 집중하도록 설계되었습니다. 이를 통해 영상마다 꼭 필요한 프레임만을 효율적으로 선택하고, 캡션 생성 성능을 크게 향상시킵니다. 추가로, 이 논문에서는 각 프레임의 중요도를 바탕으로 “적응형 주의 마스킹(Adaptive Attention Masking)” 기법을 도입하여, 영상에서 중요한 시각적 요소들에 더욱 집중할 수 있도록 합니다. 실험 결과, 제안된 MAMS 프레임워크는 최신 비디오 캡셔닝 모델들과 결합하여 여러 데이터셋에서 우수한 성능을 입증하였고, 기존 방식들에 비해 정확하고 효율적인 캡션 생성을 가능하게 했습니다. 특히, 성능이 우수한 최신 모델들과 결합했을 때, 벤치마크 기준 새로운 최고 기록을 달성하기도 했습니다. 4. 논문 “1 Harnessing Influence Function in Explaining Graph Neural Networks” 은 인공지능학과 정희수(박사재학생), 소프트웨어학과 김찬용(석사재학생), 인공지능학과 한건희(석사졸업생)이 저자로 게재하였습니다. (교신저자: 박호건 교수) - KDD 2025 Research track, Full paper (Long) 이 논문은 그래프 신경망(Graph Neural Networks; GNN)의 결정을 명확히 설명할 수 있는 XAIFG(eXplainable AI with Influence Functions on Graphs)라는 새로운 설명 방법을 제안합니다. 최근 그래프 신경망은 다양한 분야에서 중요한 의사결정에 활용되지만, 그 결정 과정을 명확히 설명하기 어려운 한계가 있었습니다. 기존 설명 방법들은 주로 연결된 노드와 엣지(edge)에만 초점을 맞추었으며, 비지도 학습(unsupervised learning) 모델이나 기존 그래프에 존재하지 않는 연결되지 않은 엣지에 대해서는 충분히 고려하지 않았습니다. 이를 극복하기 위해 XAIFG는 영향 함수(influence function)를 활용하여 각 엣지의 중요성을 평가하는 방법을 제시합니다. 이 방법은 엣지의 추가 또는 제거와 같은 변화가 모델 파라미터에 미치는 영향을 계산하여, 어떤 엣지가 중요한지 직접적으로 보여줍니다. 특히 XAIFG는 지도 학습(supervised learning)뿐 아니라 비지도 학습에도 적용 가능하며, 연결되지 않은 엣지가 모델의 성능에 어떻게 영향을 줄 수 있는지까지 설명합니다. 연구진은 합성 데이터셋과 실제 추천 시스템 데이터셋을 이용해 XAIFG가 기존 방법들보다 뛰어난 성능을 보였음을 입증했습니다. 또한 XAIFG는 그래프의 구조적 정보를 명확히 시각화할 수 있으며, 복잡한 그래프 데이터에서 중요한 요소들을 효과적으로 추출하여 설명력을 높였습니다. 5. 논문 “Balancing Graph Embedding Smoothness in Self-supervised Learning via Information-Theoretic Decomposition” 은 인공지능학과 정희수 (박사재학생)이 저자로 게재하였습니다. (교신저자: 박호건 교수) - WWW 2025 Research track, Full paper (Long) 이 논문은 그래프 데이터를 효과적으로 학습하는 새로운 방법인 BSG(Balancing Smoothness in Graph SSL)를 소개합니다. 그래프 신경망(GNN)을 활용한 자기지도 학습(Self-supervised learning, SSL)은 데이터를 효과적으로 활용하기 위해 주목받고 있지만, 기존 방법들은 그래프 내 노드들이 얼마나 서로 유사해야 하는지에 대한 '부드러움(smoothness)'을 제대로 조절하지 못해 성능에 한계가 있었습니다. BSG는 그래프의 특성상 연결된 이웃 노드끼리의 표현이 어느 정도 유사해야 한다는 '부드러움'의 균형을 맞추기 위해, 정보 이론적 관점에서 SSL 목표를 세 가지 요소로 나누고 이를 각각 조정하는 새로운 손실 함수를 제안합니다: ·이웃 손실(Neighbor Loss): 노드가 이웃과 더 유사한 표현을 갖게 하여 그래프의 부드러움을 높입니다. ·최소 손실(Minimal Loss): 불필요한 정보를 제거해 필수적인 정보만으로 표현을 구성합니다. ·발산 손실(Divergence Loss): 과도한 유사성을 방지하여 노드 표현들이 지나치게 비슷해지는 것을 막습니다. 이러한 균형 잡힌 접근법 덕분에 BSG는 노드 분류(node classification)와 링크 예측(link prediction)과 같은 다양한 그래프 분석 과제에서 기존의 다른 방법들보다 뛰어난 성능을 보였습니다. 실험 결과, 여러 실제 데이터셋을 활용한 테스트에서 BSG가 최신 방법들을 능가하는 것으로 나타났습니다. 6. 논문 “Enhancing Inductive Numerical Reasoning in Knowledge Graphs with Relation-Aware Relative Numeric Encoding” 은 인공지능학과 정홍준 (석사과정 재학생), 정희수 (박사과정 재학생), 김가영 (석사졸업생)이 저자로 게재하였습니다. (교신저자: 박호건 교수) - PAKDD 2025, Research track, Full paper (Long) 본 논문은 지식 그래프(Knowledge Graph)에서 숫자 비교 관계를 더 잘 이해하고 예측할 수 있는 새로운 방법인 "관계 인식 상대적 숫자 임베딩(Relation-aware Relative Numeric Encoding, RRNE)"을 제안합니다. 기존의 방식은 숫자 정보가 드물거나, 처음 보는 숫자 데이터를 포함한 경우 잘 작동하지 않는 문제가 있었습니다. RRNE는 숫자 정보를 절대적인 값이 아닌 상대적인 차이로 표현함으로써, 서로 다른 숫자 분포를 가진 데이터에도 유연하게 대응할 수 있게 합니다. 특히, 숫자 비교 관계(예: "더 크다", "더 길다" 등)는 대칭적이지 않은 특징이 있는데, RRNE는 이 비대칭성을 정확하게 표현할 수 있습니다. 이 연구에서는 추가로, 어려운 예제(비슷하지만 미묘한 차이가 있는 데이터)를 구별하는 데 효과적인 대비 학습(contrastive learning) 방법을 도입하여, 모델의 성능을 더욱 향상시켰습니다. 실제 데이터를 활용한 실험 결과, RRNE는 기존의 여러 모델과 비교하여 최대 24.81%의 성능 향상(AUC-PR 기준)을 달성하였고, 특히 숫자 정보가 부족한 환경에서도 뛰어난 예측력을 보여줬습니다. 결론적으로, RRNE는 지식 그래프에서 숫자 관계를 예측하는 작업에서 기존 방법들을 크게 앞서는 성과를 보여주며, 앞으로의 인공지능 기술 발전에 크게 기여할 것으로 기대됩니다. 7. 논문 “Enhancing Complex Reasoning in Knowledge Graph Question Answering Through Query Graph Approximation” 은 인공지능학과 정홍준, 김민지, 정희수 학생이 저자로 게재하였습니다. (교신저자: 박호건 교수) - ACL 2025, Research track, Full paper (Long, Findings) 본 논문은 복잡한 질문에 대해 지식 그래프(Knowledge Graph, KG)를 기반으로 답을 찾는 새로운 인공지능 프레임워크인 Aqua-QA를 제안합니다. 기존의 지식 그래프 질의응답(KGQA) 기술들은 지식 그래프가 불완전하거나 필요한 정보가 빠져있을 경우 정확한 답변을 제공하는 데 한계가 있었습니다. Aqua-QA는 이러한 문제를 해결하기 위해 자연어로 표현된 복잡한 질문을 "쿼리 그래프(query graph)"로 근사화하여, 그래프가 완전하지 않은 상황에서도 논리적 추론을 가능하게 합니다. 근사로 얻어진 쿼리 그래프 정보를 활용하여 추론 모듈은 정답을 찾아냅니다. 실험 결과, Aqua-QA는 기존의 다른 방법들보다 뛰어난 성능을 보였으며, 지식 그래프의 정보가 일부 부족한 경우에도 효과적으로 답을 도출할 수 있었습니다. 해당 실험을 통해, Aqua-QA는 복잡한 논리적 질문에 대해 더 정확하고 신뢰할 수 있는 답을 제공하는 데 유용한 도구로 평가받았습니다. 8. 논문 “Large Language Models Are Better Logical Fallacy Reasoners with Counterargument, Explanation, and Goal-Aware Prompt Formulation” 은 인공지능학과 정지원 (석사과정 졸업생)이 저자로 게재하였습니다. (교신저자: 박호건 교수, 미국 인디애나 주립대학교: 장혜주 교수) - NAACL 2025, Research track, Full paper (Long, Findings) 이 논문은 논리적 오류(logical fallacy)를 자동으로 찾아내는 인공지능 모델의 성능을 크게 개선한 새로운 프롬프트 구성 방법을 제안합니다. 최근 대규모 언어 모델(Large Language Model, LLM)은 언어 처리 능력은 뛰어나지만, 논리적 오류를 정확하게 감지하는 데에는 어려움이 있었습니다. 이를 해결하기 위해 연구팀은 반대 주장(counterargument), 설명(explanation), 목표(goal)와 같은 숨겨진 맥락 정보를 활용하는 새로운 프롬프팅 기법을 개발했습니다. 제안된 방법은 두 가지 단계로 이루어져 있습니다. 첫 번째 단계에서는 입력 문장과 관련된 반대 주장, 설명, 목표 같은 맥락 정보를 자동으로 생성합니다. 두 번째 단계에서는 이 맥락 정보를 이용해 문장 속 논리적 오류 여부를 판단하는 질문 형태의 프롬프팅을 만들어 이를 활용해 오류를 분류합니다. 이 방법을 GPT와 LLaMA 시리즈의 여러 모델에 적용해 다양한 데이터셋에서 실험한 결과, 기존의 방식들보다 뛰어난 성능을 보여주었습니다. 특히 아무런 학습이 없는 상태에서도 오류 분류 성능이 크게 향상되었으며(zero-shot에서 F1 점수 최대 0.60 향상), 추가 학습을 한 모델에서도 최대 0.45의 성능 향상을 보였습니다. 결론적으로 이 연구는 대규모 언어 모델을 활용한 논리적 오류 탐지의 정확성을 높일 수 있는 효율적인 프롬프팅 전략을 제시하며, 인공지능의 논리적 추론 능력을 한 단계 더 발전시키는 데 기여합니다. 위 연구 결과물들은 성균관대학교의 혁신적이고 선도적인 연구 방향을 보여주는 중요한 성과로, 다양한 인공지능 분야에서 널리 활용될 가능성이 높습니다. LearnData 연구실은 그래프, 자연어, 센서, 이미지 등 다양한 모달리티를 활용한 기계학습 및 데이터마이닝 기술 개발, 설명 가능 AI 기술 연구 등을 수행하고 있습니다. 위 연구는 인공지능대학원, 정보통신기획평가원, 한국콘텐츠진흥원, BK21지속가능ICT미래인재교육연구단, LG전자, NC소프트 등의 지원으로 진행되었습니다. 박호건 | hogunpark@skku.edu | LearnData Lab | https://learndatalab.github.io
-
- 작성일 2025-05-19
- 조회수 695
-
-
- 인공지능학과장 이지형 교수, 한국인공지능학회 신임 회장으로 선출
- 소프트웨어학과 이지형 교수, 한국인공지능학회 신임 회장으로 선출
-
- 작성일 2025-05-13
- 조회수 0
-
- 김유성 교수 연구실 (CSI Lab.) ICML 2025 논문 게재 승인
- CSI 연구실 (지도교수: 김유성) 논문이 인공지능 분야 우수학회인 ICML (International Conference on Machine Learning) 2025 에 게재 승인되었습니다. "Graph-Assisted Stitching for Offline Hierarchical Reinforcement Learning" 논문은 백승호 (석사과정), 박태건 (석사과정), 박종찬 (박사과정), 오승준 (박사과정) 군이 저자로 참여했습니다. 본 논문은 수집된 데이터셋으로부터 최적의 행동 정책을 효율적으로 학습할 수 있는 새로운 오프라인 계층적 강화학습 기법을 제안합니다. 특히, 품질이 낮거나 단편적인 궤적(trajectory)들로 구성된 데이터에서도 주요 상태를 선별하고 효과적으로 연결 (stitching) 하는 Graph-Assisted Stitching (GAS) 기법을 소개합니다. GAS는 상태를 시간 거리 (Temporal Distance) 표현 공간에 임베딩하고, 의미적으로 유사한 상태들을 클러스터링하여 그래프 노드를 구성하고 연결합니다. 이 그래프를 활용한 작업 계획 및 하위 정책 학습을 통해 Navigation, Locomotion, Manipulation 등 다양한 벤치마크에서 기존 방법들을 능가하며, 최대 83.6%p의 성능 향상을 달성했습니다. 김유성 | yskim525@skku.edu | CSI Lab. | https://csi-skku.github.io
-
- 작성일 2025-05-02
- 조회수 620
-
- 데이터 지능 및 학습 연구실(지도교수: 이종욱) SIGIR 2025 논문 3편 게재
- 데이터 지능 및 학습(Data Intelligence and Learning, DIAL, 지도교수: 이종욱) 연구실은 세계 최고 권위의 정보검색 학회인 SIGIR 2025에 3편의 논문이 최종 게재 승인되었으며, 7월에 이탈리아 파도바에서 논문을 발표할 예정입니다. [논문 목록] 1. Why is Normalization Necessary for Linear Recommenders? (SIGIR'25) 2. Linear Item-Item Models with Neural Knowledge for Session-based Recommendation (SIGIR'25) 3. DIFF: Dual Side-Information Filtering and Fusion for Sequential Recommendation (SIGIR'25) 연구 1: Seongmin Park, Mincheol Yoon, Hye-young Kim, Jongwuk Lee, “Why is Normalization Necessary for Linear Recommenders?”, The 48th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR), 2025 본 연구는 선형 오토인코더 (linear autoencoder, LAE) 기반 추천 시스템이 간단한 구조에도 불구하고 신경망 기반 모델과 비교할 만한 추천 성능과 빠른 추론 속도를 보인다는 점에 착안하였습니다. 그러나 LAE는 인기 있는 아이템을 과도하게 추천하는 인기도 편향 (popularity bias)와 지역적인 아이템 간 상관관계에 지나치게 의존하는 이웃 편향 (neighborhood bias)라는 두 가지 구조적 한계에 직면해 있습니다. 이러한 문제를 해결하기 위해, 본 논문에서는 LAE 모델에 적용할 수 있는 새로운 정규화 방법인 Data-Adaptive Normalization (DAN)을 제안합니다. DAN은 데이터의 특성에 따라 두 가지 bias를 유연하게 제어할 수 있도록 설계된 정규화 기법으로, (i) item-adaptive normalization과 (ii) user-adaptive normalization이라는 두 가지 핵심 컴포넌트로 구성됩니다. 첫 번째로, item-adaptive normalization은 정규화 파라미터 α를 통해 인기 아이템의 영향력을 조절하고 LAE에 denoising 효과를 부여합니다. 이를 통해 기존 LAE가 주로 추천하던 인기 아이템 (head items) 중심의 성능에서 벗어나 (즉, 인기도 편향), 비인기 아이템 (tail items)에 대한 추천 성능을 크게 향상시킬 수 있습니다. 두 번째로, user-adaptive normalization은 파라미터 β를 사용하여 이웃 편향을 제어합니다. 이 기법은 고주파수 성분 (high-frequency components)을 억제하고 중요한 저주파수 성분을 보존함으로써, 지역적인 상관관계보다 전체적인 글로벌 패턴을 더 잘 반영하도록 도와줍니다. DAN의 효과는 여섯 개의 대표적인 추천 데이터셋 (ML-20M, Netflix, MSD, Gowalla, Yelp2018, Amazon-book)에서 실험적으로 검증되었습니다. DAN을 적용한 LAE 모델들 (LAE_DAN, EASE_DAN, RLAE_DAN)은 모든 데이터셋에서 기존 LAE 모델 대비 일관된 성능 향상을 보였으며, tail 아이템과 unbiased 평가에서 최대 각각 128.57%와 12.36%의 성능 향상을 기록하였습니다. 또한 DAN은 최신 협업 필터링 모델들과 비교했을 때도 우수한 성능을 나타냈습니다. 또한, 그림 1 (Case study)은 정규화 방법에 따른 특정 사용자의 추천 결과를 보여주며, 다음과 같은 관찰을 했습니다. (1) 정규화 없는 LAE (W/O)는 사용자가 로맨틱 영화 3편을 시청했음에도 5개 모두 높은 인기도의 액션 영화만 추천합니다. 반면, 세 가지 정규화 방법 (RW, Sym, DAN)은 사용자가 본 "Step Up 1"과 관련된 "Step Up 2"를 최상위로 추천하여 사용자 선호도를 효과적으로 반영합니다. (2) DAN은 인기도 편향을 적절히 완화하면서도 사용자 선호도를 유지하는 가장 균형 잡힌 추천을 제공합니다. RW 정규화는 5개 중 4개가 인기 아이템으로, 여전히 인기도 편향이 강합니다. Sym 정규화는 5개 중 4개가 인기 없는 아이템으로, 인기도 편향을 과도하게 완화합니다. DAN은 인기 및 비인기 아이템의 균형을 맞추면서 사용자 선호도에 가장 관련성 높은 아이템을 추천합니다. 그림 1: ML-20M 데이터셋에서 사용자 #91935의 상호작용 이력과 네 가지 정규화 방법의 Top-5 추천 목록. 빨간 테두리는 head (상위 20%) 항목이고, 파란 테두리는 tail (하위 80%) 항목 나아가 본 연구는 데이터셋의 Gini index와 homophily 특성에 따라 정규화 파라미터 (α, β)의 효과가 어떻게 달라지는지 분석하고, 각 데이터셋에 적합한 파라미터 설정 가이드라인도 함께 제시합니다. 이를 통해 제안된 DAN 기법은 데이터 특성에 따라 정교하게 bias를 제어할 수 있는 일반적이고 실용적인 솔루션으로 자리매김할 수 있음을 보여줍니다. 본 논문에 관한 자세한 내용은 다음 주소를 참고해주세요. https://dial.skku.edu/blog/2025_dan 연구 2: Minjin Choi, Sunkyung Lee, Seongmin Park, Jongwuk Lee, “Linear Item-Item Models with Neural Knowledge for Session-based Recommendation”, The 48th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR), 2025 본 연구는 사용자의 현재 세션 내 상호작용을 기반으로 다음 행동을 예측하는 세션 기반 추천(Session-based Recommendation, SBR) 문제에 주목합니다. SBR 분야는 크게 두 가지 패러다임으로 나뉩니다. 하나는 복잡한 순차적 전이 패턴을 포착하는 데 강점을 보이는 신경망 기반 모델이며, 다른 하나는 아이템 간의 동시 등장 패턴을 효과적으로 학습하고 빠른 추론 속도를 제공하는 선형 아이템-아이템 모델입니다. 그러나 각 패러다임은 서로 다른 종류의 아이템 관계를 포착하는 데 특화되어 있으며, 신경망 모델의 높은 정확성과 선형 모델의 효율성을 동시에 달성하기 위한 효과적인 통합 방안은 아직 부족한 실정입니다. 이러한 배경 하에, 본 논문에서는 선형 모델과 신경망 모델의 지식을 효과적으로 통합하는 새로운 SBR 모델인 LINK (Linear Item-Item model with Neural Knowledge)를 제안합니다. LINK는 두 가지 유형의 지식을 하나의 통합된 선형 프레임워크 내에서 결합하여, 높은 정확도와 빠른 추론 속도라는 두 마리 토끼를 잡는 것을 목표로 합니다. 이를 위해 LINK는 두 가지 핵심 구성 요소를 포함합니다. (i) LIS (Linear knowledge-enhanced Item-item Similarity model)는 자기 증류(self-distillation) 기법을 통해 선형 모델 자체의 아이템 유사성(동시 등장) 포착 능력을 강화하고 세션 간의 고차원적 관계까지 학습합니다. (ii) NIT (Neural knowledge-enhanced Item-item Transition model)는 사전 학습된 임의의 신경망 모델로부터 복잡한 순차적 전이 지식을 증류하여, 이를 선형 모델 학습 시 정규화 항으로 활용하는 독창적인 방식을 통해 신경망의 지식을 선형 모델에 효과적으로 주입합니다. 그림 2에서 보이는 바와 같이, LINK 모델의 효과는 Diginetica, Retailrocket, Yoochoose 등 여섯 개의 실제 SBR 데이터셋을 사용한 광범위한 실험을 통해 검증되었습니다. 실험 결과, LINK는 모든 데이터셋에서 기존의 최첨단 선형 SBR 모델들(SLIST, SWalk 등) 대비 일관되고 큰 폭의 성능 향상(Recall@20 기준 최대 14.78%, MRR@20 기준 최대 11.04%)을 달성했습니다. 이는 선형 모델의 한계를 신경망 지식 통합을 통해 성공적으로 극복했음을 보여줍니다. 더불어 LINK는 복잡한 최신 신경망 모델들과 비교했을 때도 경쟁력 있는, 혹은 더 우수한 예측 정확도를 보이면서도, 선형 모델의 핵심 장점인 높은 추론 효율성(최대 813배 적은 FLOPs)을 그대로 유지하였습니다. 추가 분석을 통해 선형 모델이 비인기 아이템 간의 관계에 강점을 보이고 신경망 모델이 인기 아이템의 복잡한 패턴에 강점을 보이는데, LINK가 이 두 가지 강점을 효과적으로 결합하여 균형 잡힌 성능을 달성함을 확인했습니다. 그림 2: 정확도(Recall@20)와 추론 연산량(FLOPs) 비교 결론적으로, LINK는 SBR 분야에서 정확성과 효율성 사이의 실질적인 균형점을 제공하는 새로운 하이브리드 접근 방식을 제시합니다. 특히 NIT 컴포넌트는 특정 신경망 아키텍처에 구애받지 않고 다양한 모델의 지식을 활용할 수 있는 유연성을 제공하여, 향후 신경망 모델의 발전에 따라 지속적으로 성능 개선이 가능한 실용적인 솔루션입니다. 본 논문에 관한 자세한 내용은 다음 주소를 참고해주세요. https://dial.skku.edu/blog/2025_link 연구 3: Hye-young Kim, Minjin Choi, Sunkyung Lee, Ilwoong Baek, Jongwuk Lee, “DIFF: Dual Side-Information Filtering and Fusion for Sequential Recommendation”, The 48th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR), 2025 본 연구는 사용자의 과거 소비 이력을 바탕으로 다음에 선호할만한 항목을 예측하는 순차적 추천(Sequential Recommendation)에서 카테고리, 브랜드 등 아이템 부가 정보를 함께 활용하는 부가 정보 통합 순차적 추천(Side-information Integrated Sequential Recommendation, SISR)모델을 제안합니다. 제안 모델인 Dual Side-Information Filtering and Fusion (DIFF)는 사용자 시퀀스 내 노이즈를 제거하고, 다양한 속성 정보를 효과적으로 융합함으로써 더욱 정밀하고 표현력 있는 사용자 선호 모델링을 달성합니다. DIFF는 다음과 같은 세 가지 핵심 기법을 포함합니다: 그림 3: 부가 정보 통합 순차적 추천 시스템의 주파수 신호와 융합 기법 (1) 주파수 기반 노이즈 필터링 (Frequency-based Noise Filtering): DIFF는 우발적 클릭 또는 단기적 관심과 같이 실제 사용자 선호와 관련없는 신호를 제거하기 위해 주파수 영역으로의 변환을 수행합니다. 아이템 ID와 각 속성 시퀀스를 각각 주파수 영역으로 변환한 뒤, 불규칙적이거나 중요도가 낮은 주파수 성분을 제거합니다. 이를 통해 실제 사용자 선호를 반영하는 핵심 신호만을 강화할 수 있으며, 다중 시퀀스에 대해 필터링을 적용함으로써 보다 정교한 노이즈 제거를 가능하게 합니다. (2) 이중 멀티시퀀스 융합 (Dual Multi-sequence Fusion): 노이즈가 제거된 시퀀스들을 효과적으로 통합하기 위해, DIFF는 서로 다른 장점을 지니는 중간 융합과 초기 융합 방식을 함께 활용합니다. 저희는 기존 연구들이 정보 침식(information invasion) 문제를 우려하여 초기 융합 방식의 활용은 제한하거나 배제하는 경향이 있었으며, 이로 인해 다양한 속성 간 상관관계 모델링 능력을 간과하고 있다는 점에 주목하였습니다. DIFF는 초기 융합을 통해 다차원 속성 정보를 통합하고, 중간 융합을 통해 ID 중심의 선호 학습을 보완함으로써, ID와 속성 모두를 아우르는 정교한 사용자 표현을 학습합니다. 두 융합 방식의 상호보완적 조합을 통해 DIFF는 사용자 취향의 전반적인 구조뿐만 아니라 세부적인 속성 선호까지도 효과적으로 포착할 수 있습니다. (3) 정보 침식(information invasion) 방지를 위한 표현 정렬(representation alignment): 아이템 ID와 각 속성 임베딩은 서로 다른 표현 공간에 위치합니다. 따라서 이를 단순한 융합 함수(e.g. summation, concatenation, gating)로 합치는 초기 융합에서는 특정 정보가 과도하게 강조되거나 왜곡되는 정보 침식(information invasion) 문제가 발생할 수 있습니다. 이를 방지하기 위해 DIFF에서는 정렬 손실(Alignment Loss)을 설계하여, 아이템 ID와 속성 임베딩의 벡터 공간을 가깝게 만들어, 의미를 공유하면서도 적절한 차이를 유지할 수 있도록 유도합니다. DIFF는 네 개의 대표적인 공개 벤치마크 데이터셋(Yelp, Beauty, Toys, Sports)에서 검증되었으며, 기존 최신 순차 추천 모델들과 비교해 모든 지표에서 우수한 성능을 달성하였습니다. 특히, Recall@20과 NDCG@20 기준으로 각각 최대 14.1%, 12.5%의 성능 향상을 기록하며 새로운 state-of-the-art 성능을 입증하였습니다. 또한, DIFF의 노이즈에 대한 강건성(robustness)은 매우 두드러졌습니다. 사용자 시퀀스에 우발적인 클릭, 일시적인 관심 변화 등 현실적인 사용 환경에서의 노이즈를 고려해 테스트 시퀀스에 무작위로 아이템을 교체하는 방식으로 노이즈 시뮬레이션 실험을 진행하였습니다. 그 결과, DIFF는 5%의 낮은 노이즈 조건에서도 타 모델 대비 가장 적은 성능 저하를 보였으며, 25%의 높은 노이즈 조건에서도 안정적으로 높은 성능을 유지했습니다. 본 논문에 관한 자세한 내용은 다음 주소를 참고해주세요. https://dial.skku.edu/blog/2025_diff
-
- 작성일 2025-04-22
- 조회수 571
-
-
- 우사이먼 교수 연구실(DASH Lab), Euro S&P 2025 논문 1편 게재 승인
- [연구] 우사이먼 교수 연구실(DASH Lab), Euro S&P 2025 논문 1편 게재 승인 Data-driven AI & Security HCI Lab (DASH Lab, 지도교수: 우사이먼 성일)의 논문 1편이 컴퓨터 보안 및 프라이버시 분야의 세계적인 우수 국제 학회인 IEEE European Symposium on Security and Privacy (EuroS&P)에 게재 승인되었습니다. 논문은 올해 6월 이탈리아 베니스에서 발표될 예정입니다. Acceptance rate = 8% (24 paper accepted / 300 submissions) SoK: Systematization and Benchmarking of Deepfake Detectors in a Unified Framework, EuroS&P 2025 저자: 김지원 (2저자, 인공지능대학원 석사졸업), 우사이먼성일 (교신저자, 성균관대 인공지능대학원 교수) 논문 링크: https://arxiv.org/abs/2401.04364 이 연구는 호주 연방과학산업연구기구(CSIRO Data61)와 국제공동연구로 진행되었습니다. 최근 딥페이크 기술이 발전하면서 이에 대한 탐지 연구가 활발히 진행되고 있습니다. 하지만 많은 딥페이크 탐지기들은 한계가 명확했었습니다. 본 연구는 최신 딥페이크 탐지 연구를 종합적으로 검토하고, 체계적인 탐지기 평가를 위한 엔드 투 엔드 개념적 프fgfsdfg레임워크를 제안하여 딥페이크 탐지 기법을 세부적으로 분류하고 평가할 수 있는 명확한 기준을 제공합니다. 또한, 체계적인 평가 프레임워크를 통한 분석 및 실험과 함께 다양한 유의미한 결론을 도출하며, 보다 효과적인 미래의 딥페이크 탐지 기술 개발을 위한 새로운 관점을 제시합니다. [Research] One paper accepted at EuroS&P 2025 from Professor Simon S Woo's (DASH Lab) The Data-driven AI & Security HCI Lab (DASH Lab, Advisor: Simon S. Woo) has had one System of Knowledge (SoK) paper accepted for publication at the 10th IEEE European Symposium on Security and Privacy (Euro S&P), a prestigious international conference covers Machine Learning Security, System & Network Security, Cryptographic Protocols, Data Privacy. The papers will be presented in July in Venice, Italy. SoK: Systematization and Benchmarking of Deepfake Detectors in a Unified Framework, EuroS&P 2025 Authors: Binh Le, Jiwon Kim, Simon S. Woo This work is jointly performed with CSIRO Data61 as an international collaboration. Paper Link: https://arxiv.org/abs/2401.04364 Deepfakes are becoming a huge problem, and they're easier than ever to create and spread. This has led to a race to develop technologies that can detect them. However, many of these detection tools are trained on lab-generated datasets, which may not prepare them for the deepfakes we actually see in the real world. Our latest study takes a deep dive into the current state of deepfake detection. We categorize detectors into 4 major groups and 13 sub-groups, creating a clear framework to understand what makes them effective (or not). We also put 16 of the top detectors to the test against various real-world attack scenarios, including black-box, white-box, and gray-box settings. Our systematized analysis and experiments provide a deeper understanding of deepfake detectors and their generalizability, paving the way for future research and the development of more proactive defenses against deepfakes.
-
- 작성일 2025-02-28
- 조회수 982
-
- 우사이먼성일 교수(DASH 연구실), 2024 한국정보보호학회 동계학술대회 최우수 논문상
- 경기도 광주 곤지암 리조트에서 2024년 11월 28일부터 29일까지 열린 한국정보보호학회 동계학술대회에서 DASH 연구실(지도교수: 우사이먼성일)의 허민지(인공지능대학원 석사과정), Razaib Tariq(소프트웨어학과 석사과정)의 "모아레 패턴이 딥페이크 탐지 성능에 미치는 영향" 논문이 학회 최우수논문상(4th Place)을 수상하였습니다. 수상을 축하드립니다. 링크: https://cisc.or.kr/bestPaper
-
- 작성일 2025-02-28
- 조회수 749