박호건 교수 연구실 (LearnData Lab)의 그래프 및 자연어 처리, 설명가능 AI 연구 ICML, AAAI, KDD 등의 학회에 8편 논문 게재 승인
- 인공지능학과
- 조회수695
- 2025-05-19
- LearnData 연구실(지도교수: 박호건)은 ICML, AAAI, KDD, WWW, ACL, NAACL, PAKDD 등 인공지능 분야 최우수 국제학회(BK 국제 우수 컨퍼런스)의 Research Track에 총 8편의 논문을 Full Paper(long)에 주저자로 게재하였습니다.
-
- 1. 논문 “Self-supervised Adversarial Purification for Graph Neural Networks” 은 소프트웨어학과 이우현(석사재학생)이 저자로 게재하였습니다. (교신저자: 박호건 교수)
- ICML 2025 Research track, Full paper (Long) -
- 본 논문에서는 그래프 신경망(Graph Neural Networks; GNN)을 적대적 공격으로부터 보호하는 새로운 방법인 self-supervised adversarial purification 프레임워크를 소개합니다. 기존의 방법인 적대적 훈련(adversarial training)은 정확도와 견고성(robustness)을 함께 최적화하는 데 어려움이 있으며, 두 목표 사이의 갈등을 잘 해결하지 못하는 단점이 있습니다.
- 이 문제를 해결하기 위해 본 연구는 정확도와 견고성 목표를 명확히 분리하여 별도의 정화기(purifier)를 제안합니다. 이 정화기는 입력 데이터를 정화한 후 분류기로 전달하여 정확도는 분류기가, 견고성은 정화기가 각각 전문적으로 처리하도록 합니다.
- 이 정화기 모델로서 본 연구는 그래프 자동 인코더(Graph Auto-Encoder; GAE)에 일반화된GPR-GAE를 제안합니다. 실험을 통해 GPR-GAE가 다양한 데이터셋과 공격 시나리오에서 뛰어난 성능을 보이며, 기존의 방법들에 비해 월등히 높은 견고성을 달성함을 증명했습니다. 또한 별도의 설정 없이 기존의 다양한 GNN 분류기에 쉽게 적용할 수 있는 플러그 앤 플레이(plug-and-play) 방식의 정화 모듈로 활용할 수 있습니다.
- 2. 논문 “Self-supervised Adversarial Purification for Graph Neural Networks” 은 인공지능학과 강현주, 한건희(박사재학생)이 저자로 게재하였습니다. (교신저자: 박호건 교수)
- AAAI 2025 Research track, Full paper (Long) - 이 논문은 텍스트를 입력받아 소리를 생성하는 인공지능(TAG, Text-to-Audio Generation) 모델의 작동 원리를 설명하는 AudioGenX라는 방법을 제안합니다. AudioGenX는 생성된 오디오에서 각 입력 단어의 중요성을 시각화하여 사용자가 모델의 작동 방식을 이해할 수 있게 합니다.
- AudioGenX는 사실적(factual) 및 반사실적(counterfactual) 접근 방식을 사용하여 입력 텍스트에서 어떤 단어가 오디오 생성에 주요한 역할을 하는지를 분석하고, 이를 명확하게 시각적으로 제시합니다. 이 방법은 모델이 특정 단어나 표현을 어떻게 처리하는지 구체적으로 보여주며, 사용자가 오디오 생성 결과에 대한 이해와 편집을 보다 쉽게 할 수 있도록 돕습니다.
- 실험 결과, AudioGenX는 기존의 다른 설명 방법들보다 우수한 성능을 보였으며, 생성된 오디오에 대한 설명력과 신뢰성을 높였습니다. 결론적으로 AudioGenX는 사용자가 텍스트 기반 오디오 생성 모델의 내부 작동 과정을 보다 정확하게 이해하고 제어할 수 있도록 지원하는 효과적인 도구입니다.
- 3. 논문 “MAMS: Model-Agnostic Module Selection Framework for Video Captioning” 은 인공지능학과 이상호(석사졸업생)이 저자로 게재하였습니다.
(공동 교신저자: 전일용, 박호건 교수)
- AAAI 2025 Research track, Full paper (Long) – Oral (Top 6.1% paper) - 이 논문은 동영상에 자동으로 설명을 붙이는 기술(비디오 캡셔닝)에 관한 것으로, MAMS(Model-Agnostic Module Selection)라는 새로운 프레임워크를 제안합니다. 비디오 캡셔닝은 영상 속 내용을 이해하고 적절한 문장으로 설명하는 인공지능 기술인데, 기존의 방법들은 모든 영상에 똑같은 개수의 프레임(영상 장면)을 사용해서 문제점이 있었습니다.
- MAMS 프레임워크는 각 영상의 특성에 따라 적절한 수의 프레임을 선택하고, 이를 바탕으로 크기가 다른 캡션 생성 모듈(큰 모듈과 작은 모듈) 중 하나를 선택하여 사용합니다. 또한, 각 프레임에서 중요한 시각 정보를 효과적으로 선별하여 불필요한 정보의 처리를 줄이고, 핵심 정보에 더욱 집중하도록 설계되었습니다. 이를 통해 영상마다 꼭 필요한 프레임만을 효율적으로 선택하고, 캡션 생성 성능을 크게 향상시킵니다.
- 추가로, 이 논문에서는 각 프레임의 중요도를 바탕으로 “적응형 주의 마스킹(Adaptive Attention Masking)” 기법을 도입하여, 영상에서 중요한 시각적 요소들에 더욱 집중할 수 있도록 합니다. 실험 결과, 제안된 MAMS 프레임워크는 최신 비디오 캡셔닝 모델들과 결합하여 여러 데이터셋에서 우수한 성능을 입증하였고, 기존 방식들에 비해 정확하고 효율적인 캡션 생성을 가능하게 했습니다. 특히, 성능이 우수한 최신 모델들과 결합했을 때, 벤치마크 기준 새로운 최고 기록을 달성하기도 했습니다.
- 4. 논문 “1 Harnessing Influence Function in Explaining Graph Neural Networks” 은 인공지능학과 정희수(박사재학생), 소프트웨어학과 김찬용(석사재학생), 인공지능학과 한건희(석사졸업생)이 저자로 게재하였습니다. (교신저자: 박호건 교수)
- KDD 2025 Research track, Full paper (Long) - 이 논문은 그래프 신경망(Graph Neural Networks; GNN)의 결정을 명확히 설명할 수 있는 XAIFG(eXplainable AI with Influence Functions on Graphs)라는 새로운 설명 방법을 제안합니다. 최근 그래프 신경망은 다양한 분야에서 중요한 의사결정에 활용되지만, 그 결정 과정을 명확히 설명하기 어려운 한계가 있었습니다. 기존 설명 방법들은 주로 연결된 노드와 엣지(edge)에만 초점을 맞추었으며, 비지도 학습(unsupervised learning) 모델이나 기존 그래프에 존재하지 않는 연결되지 않은 엣지에 대해서는 충분히 고려하지 않았습니다.
- 이를 극복하기 위해 XAIFG는 영향 함수(influence function)를 활용하여 각 엣지의 중요성을 평가하는 방법을 제시합니다. 이 방법은 엣지의 추가 또는 제거와 같은 변화가 모델 파라미터에 미치는 영향을 계산하여, 어떤 엣지가 중요한지 직접적으로 보여줍니다. 특히 XAIFG는 지도 학습(supervised learning)뿐 아니라 비지도 학습에도 적용 가능하며, 연결되지 않은 엣지가 모델의 성능에 어떻게 영향을 줄 수 있는지까지 설명합니다.
- 연구진은 합성 데이터셋과 실제 추천 시스템 데이터셋을 이용해 XAIFG가 기존 방법들보다 뛰어난 성능을 보였음을 입증했습니다. 또한 XAIFG는 그래프의 구조적 정보를 명확히 시각화할 수 있으며, 복잡한 그래프 데이터에서 중요한 요소들을 효과적으로 추출하여 설명력을 높였습니다.
- 5. 논문 “Balancing Graph Embedding Smoothness in Self-supervised Learning via Information-Theoretic Decomposition” 은 인공지능학과 정희수 (박사재학생)이 저자로 게재하였습니다. (교신저자: 박호건 교수)
- WWW 2025 Research track, Full paper (Long) - 이 논문은 그래프 데이터를 효과적으로 학습하는 새로운 방법인 BSG(Balancing Smoothness in Graph SSL)를 소개합니다. 그래프 신경망(GNN)을 활용한 자기지도 학습(Self-supervised learning, SSL)은 데이터를 효과적으로 활용하기 위해 주목받고 있지만, 기존 방법들은 그래프 내 노드들이 얼마나 서로 유사해야 하는지에 대한 '부드러움(smoothness)'을 제대로 조절하지 못해 성능에 한계가 있었습니다.
- BSG는 그래프의 특성상 연결된 이웃 노드끼리의 표현이 어느 정도 유사해야 한다는 '부드러움'의 균형을 맞추기 위해, 정보 이론적 관점에서 SSL 목표를 세 가지 요소로 나누고 이를 각각 조정하는 새로운 손실 함수를 제안합니다:
·최소 손실(Minimal Loss): 불필요한 정보를 제거해 필수적인 정보만으로 표현을 구성합니다.
·발산 손실(Divergence Loss): 과도한 유사성을 방지하여 노드 표현들이 지나치게 비슷해지는 것을 막습니다.
이러한 균형 잡힌 접근법 덕분에 BSG는 노드 분류(node classification)와 링크 예측(link prediction)과 같은 다양한 그래프 분석 과제에서 기존의 다른 방법들보다 뛰어난 성능을 보였습니다. 실험 결과, 여러 실제 데이터셋을 활용한 테스트에서 BSG가 최신 방법들을 능가하는 것으로 나타났습니다.
6. 논문 “Enhancing Inductive Numerical Reasoning in Knowledge Graphs with Relation-Aware Relative Numeric Encoding” 은 인공지능학과 정홍준 (석사과정 재학생), 정희수 (박사과정 재학생), 김가영 (석사졸업생)이 저자로 게재하였습니다. (교신저자: 박호건 교수)
- PAKDD 2025, Research track, Full paper (Long)
본 논문은 지식 그래프(Knowledge Graph)에서 숫자 비교 관계를 더 잘 이해하고 예측할 수 있는 새로운 방법인 "관계 인식 상대적 숫자 임베딩(Relation-aware Relative Numeric Encoding, RRNE)"을 제안합니다. 기존의 방식은 숫자 정보가 드물거나, 처음 보는 숫자 데이터를 포함한 경우 잘 작동하지 않는 문제가 있었습니다.
RRNE는 숫자 정보를 절대적인 값이 아닌 상대적인 차이로 표현함으로써, 서로 다른 숫자 분포를 가진 데이터에도 유연하게 대응할 수 있게 합니다. 특히, 숫자 비교 관계(예: "더 크다", "더 길다" 등)는 대칭적이지 않은 특징이 있는데, RRNE는 이 비대칭성을 정확하게 표현할 수 있습니다.
이 연구에서는 추가로, 어려운 예제(비슷하지만 미묘한 차이가 있는 데이터)를 구별하는 데 효과적인 대비 학습(contrastive learning) 방법을 도입하여, 모델의 성능을 더욱 향상시켰습니다.
실제 데이터를 활용한 실험 결과, RRNE는 기존의 여러 모델과 비교하여 최대 24.81%의 성능 향상(AUC-PR 기준)을 달성하였고, 특히 숫자 정보가 부족한 환경에서도 뛰어난 예측력을 보여줬습니다.
결론적으로, RRNE는 지식 그래프에서 숫자 관계를 예측하는 작업에서 기존 방법들을 크게 앞서는 성과를 보여주며, 앞으로의 인공지능 기술 발전에 크게 기여할 것으로 기대됩니다.
7. 논문 “Enhancing Complex Reasoning in Knowledge Graph Question Answering Through Query Graph Approximation” 은 인공지능학과 정홍준, 김민지, 정희수 학생이 저자로 게재하였습니다. (교신저자: 박호건 교수)
- ACL 2025, Research track, Full paper (Long, Findings)
본 논문은 복잡한 질문에 대해 지식 그래프(Knowledge Graph, KG)를 기반으로 답을 찾는 새로운 인공지능 프레임워크인 Aqua-QA를 제안합니다. 기존의 지식 그래프 질의응답(KGQA) 기술들은 지식 그래프가 불완전하거나 필요한 정보가 빠져있을 경우 정확한 답변을 제공하는 데 한계가 있었습니다. Aqua-QA는 이러한 문제를 해결하기 위해 자연어로 표현된 복잡한 질문을 "쿼리 그래프(query graph)"로 근사화하여, 그래프가 완전하지 않은 상황에서도 논리적 추론을 가능하게 합니다. 근사로 얻어진 쿼리 그래프 정보를 활용하여 추론 모듈은 정답을 찾아냅니다.
실험 결과, Aqua-QA는 기존의 다른 방법들보다 뛰어난 성능을 보였으며, 지식 그래프의 정보가 일부 부족한 경우에도 효과적으로 답을 도출할 수 있었습니다. 해당 실험을 통해, Aqua-QA는 복잡한 논리적 질문에 대해 더 정확하고 신뢰할 수 있는 답을 제공하는 데 유용한 도구로 평가받았습니다.
8. 논문 “Large Language Models Are Better Logical Fallacy Reasoners with Counterargument, Explanation, and Goal-Aware Prompt Formulation” 은 인공지능학과 정지원 (석사과정 졸업생)이 저자로 게재하였습니다. (교신저자: 박호건 교수, 미국 인디애나 주립대학교: 장혜주 교수)
- NAACL 2025, Research track, Full paper (Long, Findings)
이 논문은 논리적 오류(logical fallacy)를 자동으로 찾아내는 인공지능 모델의 성능을 크게 개선한 새로운 프롬프트 구성 방법을 제안합니다. 최근 대규모 언어 모델(Large Language Model, LLM)은 언어 처리 능력은 뛰어나지만, 논리적 오류를 정확하게 감지하는 데에는 어려움이 있었습니다. 이를 해결하기 위해 연구팀은 반대 주장(counterargument), 설명(explanation), 목표(goal)와 같은 숨겨진 맥락 정보를 활용하는 새로운 프롬프팅 기법을 개발했습니다.
제안된 방법은 두 가지 단계로 이루어져 있습니다. 첫 번째 단계에서는 입력 문장과 관련된 반대 주장, 설명, 목표 같은 맥락 정보를 자동으로 생성합니다. 두 번째 단계에서는 이 맥락 정보를 이용해 문장 속 논리적 오류 여부를 판단하는 질문 형태의 프롬프팅을 만들어 이를 활용해 오류를 분류합니다.
이 방법을 GPT와 LLaMA 시리즈의 여러 모델에 적용해 다양한 데이터셋에서 실험한 결과, 기존의 방식들보다 뛰어난 성능을 보여주었습니다. 특히 아무런 학습이 없는 상태에서도 오류 분류 성능이 크게 향상되었으며(zero-shot에서 F1 점수 최대 0.60 향상), 추가 학습을 한 모델에서도 최대 0.45의 성능 향상을 보였습니다.
결론적으로 이 연구는 대규모 언어 모델을 활용한 논리적 오류 탐지의 정확성을 높일 수 있는 효율적인 프롬프팅 전략을 제시하며, 인공지능의 논리적 추론 능력을 한 단계 더 발전시키는 데 기여합니다.
위 연구 결과물들은 성균관대학교의 혁신적이고 선도적인 연구 방향을 보여주는 중요한 성과로, 다양한 인공지능 분야에서 널리 활용될 가능성이 높습니다.
LearnData 연구실은 그래프, 자연어, 센서, 이미지 등 다양한 모달리티를 활용한 기계학습 및 데이터마이닝 기술 개발, 설명 가능 AI 기술 연구 등을 수행하고 있습니다. 위 연구는 인공지능대학원, 정보통신기획평가원, 한국콘텐츠진흥원, BK21지속가능ICT미래인재교육연구단, LG전자, NC소프트 등의 지원으로 진행되었습니다.
박호건 | hogunpark@skku.edu | LearnData Lab | https://learndatalab.github.io