참고
http://www.wildml.com/2016/04/deep-learning-for-chatbots-part-1-introduction/ - 원문
http://mlduck.tistory.com/6 - 번역
Description
DEEP LEARNING FOR CHATBOTS - Part 1
A TAXONOMY OF MODELS
RETRIEVAL-BASED VS. GENERATIVE MODELS
검색 기반 모델(easier)
- 입력과 문맥에 기반한 적절한 응답
- 대답이 선-정의(predefine) 되어 있음
- 새로운 대답을 생성하지 않음
- 문법적 실수 X
- 대화가 자연스럽지 않음
생성 모델(harder)
- 대답이 선-정의(predefine) 되어 있지 않음
- 밑바닥부터 새로운 응답 생성
- 일반적으로 기계 번역 기술에 기반함
- 일반적으로 훈련이 어렵고 필요한 데이터 양이 많음
- 문법 실수 가능성이 있음
LONG VS. SHORT CONVERSATIONS
- 당연한 이야기지만 대화가 길어질수록 자동화하기 어려움
- Short-Text Conversations (easier) : 단일 입력 - 단일 응답
OPEN DOMAIN VS. CLOSED DOMAIN
open domain(easier)
- 사용자가 대화를 어디서든 할 수 있음
- 다양한 토픽과 방대한 지식 필요
- ex) twitter, reddit 같은 SNS 등
closed domain(harder)
- 특정 문제만을 처리함
- 쉬운 대신 여러 방면으로 한계가 있음
- ex) technical support, shopping assistants
COMMON CHALLENGES
대화 에이전트를 만들기 위해 해결해야할 다소 명백하지 않은 문제들로, 대부분 활발하게 연구되고 있음
INCORPORATING CONTEXT(문맥 합치기)
- 합리적인 응답 시스템을 위해서는 linguistic context 와 physical context 를 모두 포함해야 함
- linguistic context : 긴 대화에서 사람들이 무엇을 말했는지, 어떤 정보가 교환되었는지 등
- 이에 대한 대부분의 접근법은 word-embeded 이지만 긴 문장에서는 적용이 어려움
- 날짜 / 시간, 위치 또는 사용자에 대한 정보와 같은 다른 유형의 상황 별 데이터를 통합해야 할 수도 있음
COHERENT PERSONALITY(성향 일관성)
- 대화 에이전트는 의미적으로 동일한 질문에 대해 동일한 대답을 해야 함
- 많은 시스템은 linguistic하게 그럴듯한 응답을 생성하도록 학습하지만, 의미적으로 일관성있게 생성하도록 학습하지는 않음
- A Persona-Based Neural Conversation Model는 명시적으로 성향을 모델링하는 방향에 대한 첫걸음
EVALUATION OF MODELS
- 대화 에이전트를 평가하는 이상적인 방법은 임무를 달성했는지 확인하는 것
- 하지만 사람이 일일이 해야하기 때문에 레이블을 얻기 힘듦
- 특히 opend domain 처럼 잘 정의된 목적이 없을 때는 더더욱...
INTENTION AND DIVERSITY
- 생성 모델의 공통적인 문제는 많은 입력에 잘 어울리는 일반적인 대답을 하는 경향이 있다는 것임
- ex) "That's great!", "I don't know"
- 다양성을 증진하기 위해 여러 시도
- 그러나 인간은 일반적으로 입력에 대해서 특정 응답을 하고 의도를 담음
- 특정 의도를 가지도록 훈련되지 않았으므로, 이러한 종류의 다양성이 부족
HOW WELL DOES IT ACTUALLY WORK?
검색기반 모델(retrieval based model)은 사실상 opend domain 에서의 사용이 불가능하다. 사람이 모든 경우에 대해 대답을 준비할 수 없기 때문이다. 그리고 opend domain 에서의 생성 모델(generative model)은 거의 AGI(Artificial General Intelligence, 강인공지능)이다. 모든 경우를 다루어야하기 때문이다. 대화가 길어질수록 문맥이 중요해지고 문제도 더 어려워진다.
다음은 최근 Andrew Ng 교수의 인터뷰이다.
Most of the value of deep learning today is in narrow domains where you can get a lot of data. Here’s one example of something it cannot do: have a meaningful conversation. There are demos, and if you cherry-pick the conversation, it looks like it’s having a meaningful conversation, but if you actually try it yourself, it quickly goes off the rails.
'인공지능 > NLP' 카테고리의 다른 글
자연어 처리(Natural Language Processing) (1) | 2017.05.17 |
---|---|
DEEP LEARNING FOR CHATBOTS - Part 2 (0) | 2017.04.10 |
텍스트를 기계가 이해하는 방법 (0) | 2017.03.27 |