정보 및 지능 시스템 연구실(지도교수:이지형) ACL 2025 논문 1편 게재 승인
- 인공지능학과
- 조회수436
- 2025-05-21
정보 및 지능 시스템 연구실(지도교수:이지형)의 논문 1편이 자연어처리 분야의 최우수 국제학술대회인 ACL 2025 (“The 63rd Annual Meeting of the Association for Computational Linguistics”)에 게재 승인되었습니다. 논문은 7월 오스트리아 빈에서 발표될 예정입니다.
제목 : “DCG-SQL: Enhancing In-Context Learning for Text-to-SQL with Deep Contextual Schema Link Graph”
저자: 이지형*(인공지능학과 석사과정), 이진섭*(인공지능학과 석박통합과정), 이재훈(인공지능학과 석사과정), 최윤석 (성균관대 컴퓨터교육학과 조교수/소프트웨어학과 박사졸업) (*공동 1저자)
“DCG-SQL: Enhancing In-Context Learning for Text-to-SQL with Deep Contextual Schema Link Graph” 논문에서는 자연어 문장을 SQL 쿼리로 변환하는 Text-to-SQL 태스크에서 효과적인 In-context Learning을 위한 예제 선택 기법을 제안합니다. In-context Learning은 소수의 예제를 활용하여 모델이 문제를 해결하도록 유도하는 방식이지만, 기존의 예제 선택 방법은 무작위 선택과 비교해 성능 차이가 크지 않으며, 특히 Llama 3.1-8B와 같은 소형 언어 모델에서는 성능이 크게 저하되는 한계를 보입니다. 이는 기존 방식들이 In-context Learning을 효과적으로 활용했다기보다는, 모델 자체의 내재적 능력에 의존해 성능을 얻었음을 시사합니다. 이러한 문제를 해결하기 위해, 본 연구는 질문과 데이터베이스 스키마 간의 핵심 정보와 문맥적 관계를 반영한 문맥 기반 스키마 연결 그래프를 활용하여, In-context Learning에 보다 적합한 예제를 선별하는 방법을 제안합니다. 다양한 Text-to-SQL 벤치마크 데이터셋에 대한 실험을 통해 초거대 언어 모델뿐만 아니라 소형 모델에서도 SQL 생성 성능을 향상시켜, 모델 규모에 관계없이 일관된 성능 개선과 실용적인 효과를 확인할 수 있었습니다.
Abstract: Text-to-SQL, which translates a natural language question into an SQL query, has advanced with in-context learning of Large Language Models (LLMs). However, existing methods show little improvement in performance compared to randomly chosen demonstrations, and significant performance drops when smaller LLMs (e.g., Llama 3.1-8B) are used. This indicates that these methods heavily rely on the intrinsic capabilities of hyper-scaled LLMs, rather than effectively retrieving useful demonstrations. In this paper, we propose a novel approach for effectively retrieving demonstrations and generating SQL queries. We construct a Deep Contextual Schema Link Graph, which contains key information and semantic relationship between a question and its database schema items. This graph-based structure enables effective representation of Text-to-SQL samples and retrieval of useful demonstrations for in-context learning. Experimental results on the Spider benchmark demonstrate the effectiveness of our approach, showing consistent improvements in SQL generation performance and efficiency across both hyper-scaled LLMs and small LLMs.