본문 바로가기
728x90
반응형

논문리뷰7

[논문 리뷰 #7] 자연어 생성 모델을 이용한 준지도 학습 기반 한국어 사실 확인 자료 구축 자연어 생성 모델을 이용한 준지도 학습 기반 한국어 사실 확인 자료 구축: 정재환(스탠퍼드 대학교), 전동현, 김선훈, 강인호(네이버) (제 33회 한글 및 한국어 정보처리 학술대회 논문집(2021년)) 00. 서론 한국어 사실 확인 과제는 학습 자료의 부재로 연구에 어려움을 겪고 있다. 이 논문은 수작업으로 구성된 학습 자룔르 토대로 자연어 생성 모델을 이용하여 한국어 사실 확인 자료를 구축하는 방법을 제안한다. C2E와 E2C 두 가지의 생성 방법을 이용하여 실험을 진행한다. 기존 학습 자료와 새롭게 생성한 자료를 더해 학습한 사실 확인 분류기는 높은 성능을 기록했다. 또한 C2E의 경우 수작업으로 구성된 자료 없이 기존의 자연어 추론 과제 자료와 HyperCLOVA few shot 예제만으로도 높은.. 2023. 6. 17.
[논문 리뷰 #6] 문장 수준 관계 추출을 위한 개체 중심 구문 트리 기반 모델 문장 수준 관계 추출을 위한 개체 중심 구문 트리 기반 모델: 박성식, 김학수(건국대학교 컴퓨터공학과) (제 33회 한글 및 한국어 정보처리 학술대회 논문집(2021년)) 00. 서론 구문 트리의 구조적 정보는 문장 수준 관계 추출을 수행하는데 매우 중요한 자질 중 하나다. 기존 관계 추출 연구는 구문 트리에서 최단 의존 경로를 적용하는 방식으로 관계 추출에 필요한 정보를 추출하여 활용했다. 그러나 이런 트리 가지치기 기반의 정보 추출은 관계 추출에 필요한 어휘 정보를 소실할 수도 있다는 문제점이 존재한다. 이 논문은 개체 중심으로 구문 트리를 재구축 하고 모든 노드의 정보를 관계 추출에 활용하는 모델을 제안하여 문제점을 해소하고자 한다. 01. 관계추출 관계 추출이란 문장이나 문서 같은 비정형 데이터에.. 2023. 5. 15.
[논문 리뷰 #5] 한국어 오픈 도메인 대화 모델의 CTRL을 활용한 혐오 표현 생성 완화 한국어 오픈 도메인 대화 모델의 CTRL을 활용한 혐오 표현 생성 완화 : 좌승연(서울대학교), 차영록, 한문수, 신동훈(엔씨소프트) (제 33회 한글 및 한국어 정보처리 학술대회 논문집(2021년)) 00. 서론 대형 코퍼스로 학습한 언어 모델은 코퍼스 안에 포함된 사회적 편견이나 혐오 표현까지 학습한다. 최근 이러한 유해표현을 생성하지 못하도록 제한하는 연구가 이루어 지고 있으며 이 논문은 BART 사전 학습 모델을 기반한 한국어 오픈 도메인 대화 모델에서 컨트롤 코드로 모델의 응답을 조절하는 방법을 사용해 혐오 표현 생성을 완화하는 방법을 제안한다. 01. 오픈 오메인 대화 모델 오픈 도메인 대화 모델은 정해진 주제나 특정한 응답 목적 없이 자유 주제에 관해 대화 가능한 모델이다. 최근 대형 코퍼스.. 2023. 5. 14.
[논문 리뷰 #4] Attention Mechanism에 따른 포인터 네트워크 기반 의존 구문 분석 모델 비교 Attention Mechanism에 따른 포인터 네트워크 기반 의존 구문 분석 모델 비교 : 한미래, 박성식(건국대학교 인공지능학과), 김학수(건국대학교 컴퓨터공학부) (제 33회 한글 및 한국어 정보처리 학술대회 논문집(2021년)) 00. 서론 최근 딥러닝을 활용한 의존 구문 분석 연구가 활발히 진행되고 있다. 딥러닝을 활용한 의존 구문 분석은 크게 3단계로 수행되는데 마지막 단계인 지배소 및 의존 관계 결정 단계에서 포인터 네트워크를 활용하는 방법이 사용된다. 포인터 네트워크는 내부적으로 어텐션(attention)기법을 응용해 동작한다. 이는 어떤 어텐션 기법을 사용하는지에 따라 포인터 네트워크의 성능이 달라지는지를 의미한다. 이 논문은 포인터 네트워크 기반 한국어 의존 구문 분석의 지배소 및 의.. 2023. 5. 13.
[논문 리뷰 #3] 긴 문서를 위한 BERT 기반의 End-to-End 한국어 상호참조 해결 긴 문서를 위한 BERT 기반의 End-to-End 한국어 상호참조해결 : 조경빈, 정영준, 이창기 (강원대학교 빅데이터메디컬융합학과), 류지희, 임준호 (한국전자통신 연구원) (제 33회 한글 및 한국어 정보처리 학술대회 논문집(2021년)) 00. 서론 최근 한국어 상호참조해결 연구에서는 BERT를 이용해 단어의 문맥 표현을 얻어 성능을 향상시켰다. 하지만 512토큰 이상의 긴 문서를 처리하기 위해서는 512이 토큰 이하로 문서를 분할하여 처리하기 때문에 길이가 긴 문서에 대해서는 상호참조해결 성능이 낮아지는 문제가 있다. 이 논문에서는 512토큰 이상의 긴 문서를 위한 BERT기반 End-to-End 상호참조해결 모델을 제안한다. 01. 상호참조해결 상호참조해결이란 동일한 개체(entitiy)를 의.. 2023. 5. 12.
728x90
반응형