이지형 교수 연구실, ECCV 2024 논문 2편 게재 승인
- 인공지능학과
- 조회수1023
- 2024-07-08
정보 및 지능 시스템 연구실(지도교수:이지형)의 논문 2편이 컴퓨터 비전 및 인공지능 분야의 최우수 국제 학술대회인 European Conference on Computer Vision (ECCV) 2024에 게재 승인되었습니다.
논문 #1 : "ExMatch: Self-guided Exploitation for Semi-Supervised Learning with Scarce Labeled Samples"
(전자전기컴퓨터공학과 박사 김누리, 인공지능학과 석박통합과정 이진섭)
"ExMatch: Self-guided Exploitation for Semi-Supervised Learning with Scarce Labeled Samples " 논문에서는 레이블 데이터의 수가 매우 희소할 때 발생하는 준지도 학습(Semi-supervised Learning)의 성능 저하를 막기 위한 방법을 제안합니다. 준지도 학습은 소수의 레이블 데이터와 다수의 언레이블 데이터를 함께 사용하여 학습을 수행하는 방법입니다. 하지만 레이블 데이터가 희소해지면, 준지도 모델은 레이블 데이터로부터 얻을 수 있는 정보가 감소하기 때문에 언레이블 데이터를 잘못된 레이블로 활용할 가능성이 높아집니다. 이를 해결하기 위해 본 논문에서는 자기지도 모델을 사용하여 데이터의 분포 정보를 얻고, 이를 기반으로 신뢰할 수 있는 언레이블 데이터를 선별하여 추가적으로 학습하는 새로운 방법을 제안합니다. 제안 방법은 클래스별 레이블 데이터가 매우 희소한 상황에서 약 5%에서 21%의 높은 성능 향상을 보여줍니다.
Abstract: Semi-supervised learning is a learning method that uses both labeled and unlabeled samples to improve the performance of the model while reducing labeling costs. When there were tens to hundreds of labeled samples, semi-supervised learning methods showed good performance, but most of them showed poor performance when only a small number of labeled samples were given. In this paper, we focus on challenging label-scarce environments, where there are only a few labeled samples per class. Our proposed model, ExMatch, is designed to obtain reliable information from unlabeled samples using self-supervised models and utilize it for semi-supervised learning. In the training process, ExMatch guides the model to maintain an appropriate distribution and resist learning from incorrect pseudo-labels based on the information from self-supervised models and its own model. ExMatch shows very stable training progress and the state-of-the-art performances on multiple benchmark datasets. In extremely label-scare situations, performances are improved by about 5% to 21% for CIFAR-10/100 and SVHN. ExMatch also demonstrates significant performance improvements in high-resolution and large-scale dataset such as STL-10, Tiny-ImageNet, and ImageNet.
논문 #2 : "IGNORE: Information Gap-based False Negative Rejection for Single Positive Multi-Label Learning"
(인공지능학과 석사 송경렬, 전자전기컴퓨터공학과 박사 김누리, 인공지능학과 석박통합과정 이진섭)
" IGNORE: Information Gap-based False Negative Rejection for Single Positive Multi-Label Learning " 논문에서는 이미지당 하나의 긍정 레이블만 주어진 환경에서의 다중 레이블 분류(Single Positive Multi-Label Learning, SPML)를 위한 학습 방법을 제안합니다.
대부분의 기존 방법들은 주석되지 않은 레이블 (unannotated label)을 부정 레이블 (negative label)로 가정하는데, 이 과정에서 일부 긍정 레이블을 부정 레이블로 잘못 간주합니다. 즉, 이러한 가정에서는 거짓 부정(False Negative) 레이블들이 발생하여 다중 레이블 분류 모델의 학습을 방해하고 모델 일반화 성능을 저하하는 문제가 있습니다. 이러한 거짓 부정 레이블들을 학습에서 제외시키기 위해, 본 논문에서는 로짓 (logit) 차이를 기반으로 한 거짓 부정 레이블 거부 방법을 제안합니다. 제안된 방법은 주어진 단일 긍정 라벨의 판별 영역을 제외한 모든 부분이 제거된 마스크 이미지를 생성합니다. 마스크 이미지에 객체 정보가 없을 때, 해당 객체에 대한 모델의 로짓이 낮다는 점을 이용하여, 마스크 이미지와 원본 이미지 사이에 모델의 로짓 차이가 큰 경우 거짓 부정 라벨로 식별합니다. 즉, 이미지 변형을 통해 이미지 수준에서의 정보 차이를 발생시키고, 이에 따른 모델 출력 차이를 거짓 부정 식별의 기준으로 삼습니다. 제안 방법은 Pascal VOC 2012, MS COCO, NUSWIDE, CUB과 같은 다양한 다중 레이블 데이터셋에서 우수한 성능을 달성하였습니다.
Abstract: Single Positive Multi-Label Learning (SPML) is a learning environment for multi-label classification task, in which each image is assigned only one positive label while the other labels remain unannotated. Most approaches for SPML assume unannotated labels as negatives (“Assumed Negative", AN). However, with this assumption, some positive labels are inevitably regarded as negative (false negative), resulting in model performance degradation. Therefore, identifying false negatives is the most important with AN assumption. Previous approaches identified false negative labels using the model outputs of assumed negative labels. However, models were trained with noisy negative labels, their outputs were not reliable. Therefore, it is necessary to consider effectively utilizing the most reliable information in SPML for identifying false negative labels. In this paper, we propose an Information Gap-based false Negative lOss REjection (IGNORE) method for SPML. We generate the masked image that all parts are removed except for the discriminative area of the single positive label. It is reasonable that when there is no information of an object in the masked image, the model’s logit for that object is low. Based on this intuition, we identify the false negative labels if they have a significant model’s logit gap between the masked image and the original image. Also, by rejecting false negatives in the model training, we can prevent the model from being biased to false negative labels, and build more reliable models. We evaluate our method on four datasets: Pascal VOC 2012, MS COCO, NUSWIDE, and CUB. Compared to previous state-of-the-art methods in SPML, our method outperforms them on most of the datasets.