Open Access System for Information Sharing

Login Library

 

Thesis
Cited 0 time in webofscience Cited 0 time in scopus
Metadata Downloads

Zero-shot Slot Filling with Momentum Contrastive Learning and Pre-trained Knowledge

Title
Zero-shot Slot Filling with Momentum Contrastive Learning and Pre-trained Knowledge
Authors
허성환
Date Issued
2022
Publisher
포항공과대학교
Abstract
Zero-shot slot filling has received considerable attention to cope with the problem of limited available data for the target domain. One of the important factors in zero-shot learning is to make the model learn generalized and reliable representations. For this purpose, we present mcBERT, which stands for `m'omentum `c'ontrastive learning with \textbf{BERT}, to develop a robust zero-shot slot filling model. mcBERT uses BERT to initialize the two encoders, the query encoder and key encoder, and is trained by applying momentum contrastive learning. Our experimental results on the SNIPS benchmark show that mcBERT substantially outperforms the previous models, recording a new state-of-the-art. Besides, we also show that each component composing mcBERT contributes to the performance improvement.
제로샷 슬롯 채우기는 목적 도메인에 대한 데이터가 제한적인 경우를 해결하기 위한 방법으로서 주목받아왔다. 제로샷 학습에 있어 가장 중요한 요인은 모델이 일반화되고 신뢰성 있는 표현을 학습하도록 하는 것이다. 이러한 목적으로, 우리는 모멘텀 대조학습과 사전학습된 언어모델 BERT를 도입한 모델을 제안한다. 제안하고자 하는 모델은 질의 인코더와 BERT를 사용하여 두 인코더를 초기화하고 SNIPS 데이터셋을 사용한 실험에서 제안 모델은 기존의 제안 방법들과 비교하여 훨씬 뛰어난 성능을 보여주었다. 한편, 우리는 제안 모델의 각 구성 요소들이 성능 향상에 미치는 영향을 확인하는 실험을 진행하였다.
URI
http://postech.dcollection.net/common/orgView/200000632487
https://oasis.postech.ac.kr/handle/2014.oak/117464
Article Type
Thesis
Files in This Item:
There are no files associated with this item.

qr_code

  • mendeley

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

Views & Downloads

Browse