-
- 허재필 교수 연구실, CVPR 2022 논문 2편 게재 승인
- 비주얼컴퓨팅연구실(지도교수: 허재필)의 논문 2편이 컴퓨터 비전 및 인공지능 분야의 Top-tier 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2022에 게재 승인되었습니다. 논문 #1: “Local Attention Pyramid for Scene Image Generation” (인공지능학과 박사과정 심상헌, 인공지능학과 박사과정 현상익, 인공지능학과 박사과정 배대현) 논문 #2: “Task Discrepancy Maximization for Fine-grained Few-Shot Classification” (인공지능학과 석사과정 이수빈, 인공지능학과 석사과정 문원준) “Local Attention Pyramid for Scene Image Generation” 에서는 장면 영상 생성(scene image generation)에서 물체 별 품질 불균형 문제(class-wise visual quality imbalance issue)가 발생한다는 것을 확인하였으며, 이를 완화하기 위해서 새로운 네트워크 모듈을 제안하였습니다. 제안하는 모듈은 장면 영상의 특징인 여러 물체가 전체 영상에 산재해 있다는 점에 착안하여, 생성모델이 여러 로컬 영역들(local regions)에 높은 주의 점수(attention score)를 계산하도록 설계하였습니다. 본 연구에서는 제안된 기법을 이미지 생성분야의 여러 선행 연구들에 적용하였으며, 일관되게 이미지 생성 품질이 향상됨을 확인하였습니다. “Task Discrepancy Maximization for Fine-grained Few-Shot Classification” 에서는 Fine-grained few-shot classification의 성능향상을 위한 모듈(Task Discrepancy Maximization, TDM)을 제시하였습니다. Few-shot classification은 기존에 학습하지 않았던 카테고리를 적은 수의 라벨링 데이터로 학습하는 분야입니다. 제안하는 모듈은 라벨링 된 데이터(Support-set)을 이용하여 각 카테고리별 차별적인 특징을 예측하고 강조하는 서브모듈(Support Attention Module, SAM)과 분류해야 하는 데이터(Query-set)을 이용하여 분류 대상과 관련 있는 특징을 강조하는 서브모듈(Query Attention Module, QAM)로 구성되어 있습니다. 제안된 모듈은 기존 방법들의 성능을 모두 향상시켰으며 Fine-grained few-shot classification 분야에서 가장 높은 성능을 달성하였습니다. [논문 #1 정보] Local Attention Pyramid for Scene Image Generation Sang-Heon Shim, Sangeek Hyun, DaeHyun Bae, and Jae-Pil Heo IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2022 Abstract: In this paper, we first investigate the class-wise visual quality imbalance problem of scene images generated by GANs. The tendency is empirically found that the class-wise visual qualities are highly correlated with the dominance of object classes in the training data in terms of their scales and appearance frequencies. Specifically, the synthesized qualities of small and less frequent object classes tend to be low. To address this, we propose a novel attention module, Local Attention Pyramid (LAP) module tailored for scene image synthesis, that encourages GANs to generate diverse object classes in a high quality by explicit spread of high attention scores to local regions, since objects in scene images are scattered over the entire images. Moreover, our LAP assigns attention scores in a multiple scale to reflect the scale diversity of various objects. The experimental evaluations on three different datasets show consistent improvements in Frechet Inception Distance (FID) and Frechet Segmentation Distance (FSD) over the state-of-the-art baselines. Furthermore, we apply our LAP module to various GANs methods to demonstrate a wide applicability of our LAP module. [논문 #2 정보] Task Discrepancy Maximization for Fine-grained Few-Shot Classification SuBeen Lee, WonJun Moon, and Jae-Pil Heo IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2022 [Oral presentation] Abstract: Recognizing discriminative details such as eyes and beaks is important for distinguishing fine-grained classes since they have similar overall appearances. In this regard, we introduce Task Discrepancy Maximization (TDM), a simple module for fine-grained few-shot classification. Our objective is to localize the class-wise discriminative regions by highlighting channels encoding distinct information of the class. Specifically, TDM learns task-specific channel weights based on two novel components: Support Attention Module (SAM) and Query Attention Module (QAM). SAM produces a support weight to represent channel-wise discriminative power for each class. Still, since the SAM is basically only based on the labeled support sets, it can be vulnerable to bias toward such support set. Therefore, we propose QAM which complements SAM by yielding a query weight that grants more weight to object-relevant channels for a given query image. By combining these two weights, a class-wise task-specific channel weight is defined. The weights are then applied to produce task-adaptive feature maps more focusing on the discriminative details. Our experiments validate the effectiveness of TDM and its complementary benefits with prior methods in fine-grained few-shot classification.
-
- 작성일 2022-03-31
- 조회수 2317
-
- 이지형 교수 연구실, CVPR 2022 논문 게재 승인
- 정보 및 지능 시스템 연구실(지도교수: 이지형)의 김누리(전자전기컴퓨터공학과 석박과정)의 “Propagation Regularizer for Semi-supervised Learning with Extremely Scarce Labeled Samples” 논문이 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2022에 게재 승인되었습니다. CVPR은 컴퓨터 비전 및 인공지능 분야의 Top-tier 학술대회이며, 2022년에는 미국 뉴올리언스에서 개최됩니다. 본 연구에서는 기존 준지도 학습(Semi-Supervised Learning, SSL)에서 레이블 데이터가 클래스 당 1~2개밖에 없는 상황에서 성능 향상을 위한 Regularization 방법과 CVPR NewOrleansLogo_WebsiteCorner모델 선택 방법을 제안합니다. 레이블 데이터가 매우 부족한 상황에서 SSL은 학습 과정에서 확증 편향(Confirmation bias) 문제가 심각하게 나타난다는 것을 확인했으며, 이를 완화하기 위해서 언레이블 데이터에 대한 pseudo-label의 엔트로피를 최대화하는 Regularization을 제안합니다. 또한 레이블 데이터가 매우 부족한 상황에서 SSL은 확증 편향으로 인하여 학습 과정이 매우 불안정함을 확인했으며, 이러한 상황에서 검증 데이터를 추가로 활용하지 않고 최적의 모델을 선택하기 위한 방법을 제안합니다. 제안된 Regularization 방법과 모델 선택 방법을 통해 CIFAR-10, CIFAR-100, SVHN 데이터에서 기존 방식 대비 8.9%에서 120.2%까지 향상된 성능을 달성하였습니다.
-
- 작성일 2022-03-10
- 조회수 2012
-
- 우사이먼성일 교수 연구실(DASH Lab)의 The Web Conference (WWW) 논문 2편 게재 승인
- Data-driven AI Security HCI(DASH Lab) 연구실 학생 1) 이상엽 (소프트웨어학과 석박과정 연구원), 안재주 (소프트웨어학과 석사과정 연구원)과 우사이먼성일 (교신저자)의 논문 “BZNet: Unsupervised Multi-scale Branch Zooming Network for Detecting Low-quality Deepfake Videos”과 2)소프트웨어학과 Shahroz Tariq (소프트웨어학과 박사과정 연구원), 전소원 학생(소프트웨어학과 석사과정 연구원), 우사이먼성일 교수(교신저자)의 “Am I a Real or Fake Celebrity? Evaluating Face Recognition and Verification APIs under Deepfake Impersonation Attack” 논문 2편이 웹/데이터 마이닝 분야 최우수 학회The Web Conference (WWW) 2022 ( https://www2022.thewebconf.org/) (BK IF=4)에 게재 승인되었고, 2022년 4월 프랑스 리옹/온라인으로 발표될 예정입니다. 1)논문1. “BZNet: Unsupervised Multi-scale Branch Zooming Network for Detecting Low-quality Deepfake Videos” 특정 대상을 모방하는 딥페이크 생성 기법의 발전으로 사회는 가짜 뉴스나 잘못된 정보 전파에 취약해졌지만 최근 활발한 연구를 통해 다양한 딥페이크 탐지 기법들이 연구되었습니다. 하지만, 최근 SNS나 웹에 실제 배포되는 딥페이크 동영상은 저장공간 확보를 위해 저화질 비디오로 압축되어 기존의 탐지 기법의 성능을 저하시킵니다. 이를 해결하기 위해 본 연구에서는 Unsupervised Super-resolution (SR) 기법과 multi-scale 이미지를 동시에 학습하는 모델인 Branch Zooming Network (BZNet)을 개발하여 저화질 딥페이크 동영상을 탐지하였습니다. 탐지 모델 학습 시 학습용 고화질 딥페이크 동영상을 사용하지 않고 저화질 동영상만을 사용했다는 점에서 새로운 유형의 딥페이크의 저화질 배포 동영상만 존재하는 현실이 잘 반영되었다고 평가됩니다. 세부적으로, 본 논문에서는 저화질 딥페이크 탐지모델 BZNet을 두 단계로 나누어 학습을 진행합니다. 첫번째 단계는 주어진 저화질 딥페이크 이미지의 퀄리티를 N개의 고화질 이미지 크기로 높여주는 Unsupervised SR N개 모듈들을 학습합니다. 두번째 단계에서는 학습된 모듈을 활용하여 생성한 각기 다른 N개 이미지들을 활용하여 CNN기반 모델을 학습합니다. 이때, 여러 화질 이미지를 화질별로 나누어 학습하는 것이 아닌, 한 모델에 동시 입력으로 사용하여 학습하는 방법을 제안하였습니다. 저화질 딥페이크 영상을 다양한 화질의 이미지로 변환 후 multi-scale 학습법을 통해 저화질 딥페이크의 화질 변화 특징 추출 능력을 극대화할 수 있었고, 최신 탐지 모델과 비교하여 그 중 가장 높은 성능을 낼 수 있었습니다. 뿐만 아니라, 기존의 CNN기반 모델에 본 연구에서 개발한 Branch Zooming Module을 적용하여 저화질 이미지에 대한 분류 성능을 높임으로써, 이후 저화질 이미지 분류 문제 해결에 대한 가능성을 보였습니다. 2)논문2. “Am I a Real or Fake Celebrity? Evaluating Face Recognition and Verification APIs under Deepfake Impersonation Attack” 본 연구에서는 딥페이크를 활용한 사칭 공격 (Deepfake Impersonation Attack)에 대한 얼굴 인식 API 와 오픈소스 툴들의 취약성을 시험합니다. 마이크로소프트, 아마존, 네이버 등에서 제공하는 영리 목적의 얼굴 인식 웹 서비스는 높은 정확도를 자랑하며, 다양한 멀티미디어 어플리케이션에 활용되고 있으나, 이러한 얼굴 인식 웹 서비스는 정교한 ‘딥페이크’ 기술의 발전으로 자연스레 누구나 빠르게 사칭 공격을 수행 가능한 환경에 노출되었습니다. 이에 본 연구에서는, 얼굴 인식 웹 서비스와 오픈소스 툴 중에서도 ‘유명인 얼굴 인식’ 서비스를 대상으로 딥페이크 사칭 공격을 수행한 결과, Targeted Attack (TA)의 경우 78.0%의 높은 공격 성공률을 보였습니다. 또한 본 연구에서는 적대적 훈련 기법을 사용하여 Targeted Attack 공격 성공률을 1.26%까지 감소시키는 딥페이크 사칭 공격 완화 전략을 제안하였습니다.
-
- 작성일 2022-02-03
- 조회수 1809
-
- 소프트웨어학과 이종욱 교수 한국정보과학회 "젊은 과학자상" 수상
- 한국정보과학회는 강원도 평창에서 열린 올해 한국소프트웨어 종합학술대회에서 “6회 젊은 과학자상” 수상자로 성균관대 소프트웨어학과 이종욱 교수를 선정하였다. “젊은 과학자상”은 정보과학 발전에 공로가 인정되고 연구 개발 실적이 뛰어나며 발전 잠재력이 우수한 만40세 이하의 연구자에게 IEEE-CS와 공동으로 수여하는 상이다. 이종욱 교수는 데이터마이닝, 데이터베이스 및 인공지능 분야에서 우수한 학술 업적을 높이 평가받아 수상자로 선정되었다. 한국정보과학회는 1973년 설립되었으며, 현재 일반회원 39,000여명, 특별회원 156기관, 단체회원 278개 기관이 등록되었으며, 컴퓨터 분야에서 국내 최대 규모의 학회이다.
-
- 작성일 2021-12-30
- 조회수 1344
-
- 우사이먼 교수 (DASH) 교수 연구실, 인공지능 그랜드 챌린지 4차 대회 우승
- 데이터 기반 융합 보안 연구실(DASH LAB, 지도교수: 우사이먼성일, 인공지능학과 이한빈, 김정호, 김진범 석사과정, 소프트웨어학과 안재주 석사과정)은 과학기술정보통신부가 주최하고 정보통신기획평가원이 주관하는 2021 인공지능 그랜드 챌린지 4차 3단계 대회 Track 1(행동인지) 부문 1위를 수상하였다. 선발된 팀에게는 내년에 있을 최종 단계를 준비하기 위한 4억 7500만원 규모의 연구비가 지원된다. 인공지능 그랜드 챌린지’대회는 제시된 문제를 해결하기 위해 참가자들이 개발한 알고리즘을 가지고 실력을 겨루는 도전·경쟁형 연구개발(R&D) 경진대회이다. 이번 4차 3단계 대회는 ‘인공지능 기술을 활용하여 빠르고 정확하게 도움이 필요한 사람을 탐지하라’는 주제로 11월 12일부터 동월 14일까지 온라인으로 진행되었다. 특히, 본 대회에서는 제한된 컴퓨팅 파워에서 빠르고 정확하게 이상 행동을 보이는 사람을 탐지하는 것을 목표로 한다. 속도와 성능의 트레이드-오프를 극복하기 위해 본 연구실에서는 강력한 후처리 알고리즘을 사용하여 큰 모델로도 실시간 처리를 가능하도록 하였다. 더불어 최근 본 연구실에서 NeurIPS 2021 Datasets & Benchmarks Track에 발표한 VFP290K 데이터셋을 활용하여(VFP290K: A Large-Scale Benchmark Dataset for Vision-based Fallen Person Detection | OpenReview) 훈련된 모델은 챌린지에서도 뛰어난 성능을 보였다. 지난 해 개최된 1단계 및 2단계 대회에서도 각각 1위, 3위의 성적을 거둔 데 이어 금번 대회에서도 1위의 성적을 거둬 과학기술정보통신부 장관상을 수상하였다. 내년 11월에 개최될 최종 단계에서는 모든 트랙의 과제를 융합하여 더욱 난이도 높은 과제가 제시된다. 각 트랙 별 1위 수상 팀 간의 경쟁을 통해 인공지능 그랜드 챌린지의 최종 우승팀을 선발한다. 관련 기사: 'AI 그랜드 챌린지 시상식…장관상 10개팀에 총 47.5억 지원 :: 공감언론 뉴시스통신사 :: (newsis.com)
-
- 작성일 2021-12-14
- 조회수 1953
-
- 우사이먼 교수(DASH)연구실 AAAI2022 논문 게재 승인
- Data-driven AI Security HCI(DASH Lab) 연구실 학생 Binh M. L(석박과정연구원)과 우사이먼성일(교신저자)의 논문이 인공지능 최우수학회인 36th AAAI 2022(Acceptance Rate = 15%, BK IF= 4)에 최종 논문 게재가 승인되었고, 2022년 2월 캐나다 밴쿠버에서 발표될 예정입니다. "ADD: Frequency Attention and Multi-View based Knowledge Distillation to Detect Low-Quality Compressed Deepfake Images," Binh M. Le and Simon S. Woo, Thirty-Sixth AAAI Conference on Artificial Intelligence, Canada, 2022 본 연구에서는 저화질(Low Quality)로 압축된 딥페이크 영상을 탐지하는 새로운 방법을 제안하였습니다. Optimal Transportation, Frequency Domain learning, Knowledge Distillation 이론을 활용하여 고화질 이미지에 대해 사전 훈련된 교사 (Teacher) 모델을 활용하여 저화질로 압축된 이미지를 감지하도록 학생 모델을 학습합니다. 세부적으로, 본 논문에서는 저화질의 딥페이크 탐지 모델에 두 가지 새로운 방법을 제안하였습니다. 첫 번째로 고주파 정보의 손실과 압축된 이미지의 상관관계 손실 정보를 활용합니다. 고도로 압축된 딥페이크를 탐지하기 위한 지식 증류(Knowledge Distillation) 프레임워크에서 주파수 어텐션 증류 (Frequency attention distillation) 및 다양한 데이터 뷰(view) 에서의 증류를 탐구하는 새로운 어텐션 기반 딥페이크 탐지 증류 방법을 제안했습니다. 주파수 어텐션은 학생 모델이 교사 모델로부터 고주파수 구성 요소를 검색하고 더 집중할 수 있도록 도와주는 역할을 하며 학습을 더욱 효율적으로 진행할 수 있습니다. 두 번째로 Sliced Wasserstein Distance을 활용한 멀티 뷰 어텐션은 학생 모델의 출력과 텐서 분포를 교사 모델에 활용하며, 이는 멀티 뷰의 텐서 요소 간 관련된 픽셀 특징들을 유지하는 역할을 합니다. 개발한 모델의 효율성을 검증하기 위해 본 논문에서는 다양한 벤치마크 데이터셋을 사용하고, 이전의 많은 최신 탐지 모델과 비교하였으며, 그중 가장 높은 성능을 확보할 수 있었습니다.
-
- 작성일 2021-12-08
- 조회수 1403
-
- 2021년 인공지능 그랜드 챌린지 5차 대회 입상
- 소프트웨어학과 데이터 지능 및 학습 연구실(Data Intelligence and Learning Lab, 지도 교수: 이종욱)이 “2021년 인공지능 그랜드 챌린지 5차 2단계 대회”에 참가하여 최종 선발되었습니다. 대회는 정보통신기획평가원(IITP) 주최로 진행되었으며, 총 34개 팀(228명)이 참가하여 최종 3개의 팀이 선발되었습니다. 선발된 팀에게는 3단계 대회 준비를 위한 4억7500만 원(총 14억2500억 원) 규모의 연구비가 지원됩니다. “인공지능 그랜드 챌린지” 대회는 제시된 문제를 해결하기 위해 참가자들이 개발한 학습 모델을 활용하여 실력을 겨루는 도전·경쟁형 연구개발(연구·개발 R&D) 경진대회입니다. 이번 5차 2단계 대회는 ‘인공지능 기술을 활용하여 텍스트로 구성된 서술형 수학 문제의 풀이 과정과 해답을 제시하라’는 주제로 10월 27일부터 29일까지 진행되었습니다. 수학 문장형 문제(Math Word Problem, MWP)는 자연어로 구성된 서술형 수학 문제에 대해서 수식 또는 프로그래밍 형태의 풀이 과정과 해답을 제시하는 학습 모델을 개발하는 것을 목표로 합니다. 이를 위해 학습 모델이 자연어 문장을 잘 이해할 수 있어야 함과 동시에 수학 문제를 효과적으로 풀기 위한 수식을 효과적으로 생성 및 추론할 수 있어야 합니다. 나아가, 학습한 모델이 인간처럼 여러 도메인의 지식을 받아들이고 이를 기반으로 서술형 문제의 맥락을 파악하여 수식의 답을 도출해내야 하므로 고도화된 인공지능 기술의 집약체라고 할 수 있습니다. 본 연구실은 지난 6월에 진행되었던 1단계 대회에서도 효과적으로 자연어 형태의 수학 문제를 이해할 수 있는 학습 모델을 개발하여 우수한 성적으로 입상하였습니다. 2단계 대회에서는 좀 더 복잡한 수학 문제를 풀 수 있도록 1단계의 모델을 고도화 및 추가적인 데이터를 수집을 통해 성능을 개선하였습니다. 관련 기사: https://www.inews24.com/view/1418957
-
- 작성일 2021-11-23
- 조회수 1664
-
- 성균관대학교- 한국철도기술연구원, 철도 인공지능 융합연구 협력 추진
- 성균관대학교-한국철도기술연구원 철도 인공지능 융합연구 협력 추진 - 학·연간 철도/물류/대중교통 인공지능 융합연구에 대한 협력연구 환경 조성 성균관대학교(총장 신동렬)와 한국철도기술연구원(원장 한석윤)이 K-명품철도 기술을 위한 인공지능(AI) 기술 교류 업무협약을 11.17(수) 체결했다. 한국철도기술연구원(경기도 의왕시 소재)에서 열린 이번 협약식에는 신동렬 성균관대 총장과 한석윤 한국철도기술연구원 원장 등 주요 관계자들이 참석했다. 양 기관은 이번 협약을 바탕으로 철도‧물류‧대중교통 인공지능 융합연구에 대한 체계적이고 지속 가능한 협력연구 환경 조성하여, 4차 산업혁명에 따른 패러다임 전환에 능동적으로 대처하고 철도‧물류‧대중교통 기술경쟁력을 높이는 것은 물론, 지자체 및 기업 문제를 공동으로 해결하는 등 사회 및 산업 발전에 기여할 계획이다. 나아가 철도‧물류‧대중교통 인공지능 연구 활성화를 위한 융합연구 뿐만 아니라, 이를 위한 맞춤형 교육 프로그램 운영, 인공지능 플랫폼 공동 구축‧활용, 산학연 협업을 통한 미래 인재 양성에도 힘쓸 예정이다. 성균관대는 2019년 국내 대학 최초로 ‘AI 비전전략 선포식’을 개최하고 과학기술정보통신부 지원 국책 인공지능대학원 1차로 선정된 바 있으며, 인공지능대학원, 인공지능연구소, 인공지능교육원, S센터(AI 컴퓨팅 인프라) 등 4개 기관 신설과 더불어 인공지능 교육 및 연구 비전을 제시하는 등 세계 최고 수준의 글로벌 인공지능 R&E 선도대학으로 발돋움하고 있다. 한편, 한국철도기술연구원은 지능형 철도‧교통기술 개발을 위하여 전통 철도기술과 인공지능 기술의 융합을 쉽고 빠르고 편리하게 지원 가능한 철도 인공지능 지원 표준 플랫폼을 개발하고 있으며, 더불어 과학기술정보통신부의 교통분야 빅데이터 센터 운영 및 충북 오송에 위치한 철도종합시험선로의 디지털화를 추진하는 등 세계 최고 수준의 철도전문연구기관으로 나아가기 위한 인공지능 철도 통합 플랫폼 구축에 전력을 다하고 있다.
-
- 작성일 2021-11-18
- 조회수 1009
-
- 김유성 교수 연구실 2021 스펙트럼 챌린지 대회 1등 수상
- 한국전자통신연구원(ETRI) 은 다양한 신규 무선 서비스가 상호 공존할 수 있게 하는 전파이용 핵심기술 연구·개발을 목표로 스펙트럼 챌린지 대회를 개최하였다. 전파이용률 향상 기술 분야로 '다중 주파수 채널 공유 네트워크 환경에서 강화학습을 활용한 효율적인 통신 방식 찾기'라는 주제로 8 대학 팀이 경연을 펼쳤으며, 성균관대학교 정신기 박사과정 , 박정인 학석 연계과정, 김유성 교수로 구성된 CSI Lab. (Computer Systems and Intelligence Lab) 팀이 1등을 수상하였다. CSI Lab. 은 2020년 스펙트럼 챌린지에서도 1등을 수상하여, 2년 연속 1등이라는 쾌거를 달성하였다. 스펙트럼 챌린지 대회는 4차 산업혁명과 초연결사회 구성의 핵심 자원인 주파수의 세계적 이용 패러다임 변화에 적극적으로 대응하고, 전파자원 이용 한계를 극복할 수 있는 핵심 기술 개발의 선봉 임무를 수행할 수 있는 기반이 될 것이며, 스펙트럼 챌린지를 통해 발굴된 기술과 연구개발 지원은 미래 수요가 급증할 것으로 예상하는 6㎓ 대역의 신규 공급과 6㎓대역 이용촉진에도 크게 기여할 수 있을 것으로 예상된다. 1등 수상 팀에는 연구비 1억원이 주어진다. 기사 본문 https://www.news1.kr/articles/?4493568
-
- 작성일 2021-11-16
- 조회수 1064
-
- 우사이먼 교수(DASH) 연구실, CIKM 2021 국제학술대회 논문 1편 게재 승인 및 다수 인공지능 경진대회 수상(이광한 석박사통합과정 등)
- 1. Data-driven AI Security HCI 연구실(지도교수: 우사이먼성일)의 논문 1편이 인공지능 및 정보검색 분야의 최우수 국제 학술대회인 CIKM (Conference on Information and Knowledge Management) 2021에 최종 논문 게재가 승인되어 11월에 발표되었습니다. (Gwanghan Lee, Minha Kim, Minha Kim and Simon S. Woo, "EMGNet: Efficient Multi-Scale Feature Generation Adaptive Network.", Proceedings of the 30th ACM International Conference on Information and Knowledge Management (CIKM 2021), November 2021.) 본 연구에서는 효율적인 이미지 분류를 위한 새로운 Multi-Scale Feature Generation Adaptive Network를 제안합니다. 제안 모델은 auxiliary classifier의 위치에 따라 필요한 만큼의 multi-scale feature를 생성합니다. 이 과정에서 가중치를 공유하는 컨볼루션 필터를 사용하여 효율성을 개선시켰을 뿐만 아니라 shallow classifier의 성능을 개선시켜 더욱 많은 이미지를 효율적으로 예측할 수 있음을 보였습니다. 2. DASH Lab 소속 이광한 인공지능학과 석박통합과정이 SK그룹에서 주관하는 ‘SK와 함께하는 AI Challenge for Our Society’ 대회에서 1위를 차지했습니다. 본 대회는 CCTV영상 이미지 데이터를 준지도학습 기반으로 학습하는 객체탐지 (Semi-supervised Object Detection) 모델 구현을 통해 성능을 겨루는 대회로, 10월 12~27일까지 온라인으로 진행되었습니다. 3. DASH Lab 소속 이광한 인공지능학과 석박통합과정이 ㈜마인즈앤컴퍼니가 주관하는 ‘판교 AI Challenge’ 대회에서 1위를 차지했습니다. 본 대회는 CCTV영상을 입력으로 하여, 해당 영상의 위험행동을 분류하는 인공지능 모델 개발을 통해 성능을 겨루는 대회로, 10월 11~22일까지 온라인으로 진행되었습니다. 4. DASH Lab 소속 우사이먼성일 교수 연구실팀 (이광한 인공지능학과 석박통합과정)과 (이한빈 인공지능학과 석사과정 / 안재주 소프트웨어학과 석사과정 / 김정호 인공지능학과 석사과정)이 LG AI Research에서 주최하고 ㈜데이콘에서 주관하는 ‘카메라 이미지 품질을 향상시키는 AI 모델 개발’ 대회에서 각각 1위, 2위를 차지했습니다. 본 대회는 카메라로 사진을 찍을 때 생기는 빛 번짐 문제를 AI 기술로 해결하고자 하는 대회입니다. 5. DASH Lab 소속 우사이먼성일 교수 연구실팀 (이광한 인공지능학과 석박통합과정 / 김정호 인공지능학과 석사과정 / 김민하 소프트웨어학과 석사과정)이 한국지능정보사회진흥원(NIA)에서 주최하고 ㈜데이콘에서 운영하는 ‘2021 Ego-Vision 손동작 인식 AI 경진대회’ 대회에서 2위를 차지했습니다. 본 대회는 영상에서 추출한 이미지 학습데이터를 활용한 인공지능 기반의 손동작 인식 및 분류 모델 개발을 겨루는 대회입니다.
-
- 작성일 2021-11-10
- 조회수 1928