KR102814913B1 - 응답 추론 방법 및 장치 - Google Patents
응답 추론 방법 및 장치 Download PDFInfo
- Publication number
- KR102814913B1 KR102814913B1 KR1020190122021A KR20190122021A KR102814913B1 KR 102814913 B1 KR102814913 B1 KR 102814913B1 KR 1020190122021 A KR1020190122021 A KR 1020190122021A KR 20190122021 A KR20190122021 A KR 20190122021A KR 102814913 B1 KR102814913 B1 KR 102814913B1
- Authority
- KR
- South Korea
- Prior art keywords
- response
- latent variable
- vector
- verification
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Machine Translation (AREA)
Abstract
Description
도 2(a) 및 도 2(b)는 일실시예에 따른 응답 추론 방법을 설명하기 위한 도면이다.
도 3(a) 및 도 3(b)는 일실시예에 따른 응답 추론 방법을 설명하기 위한 도면이다.
도 4a 및 도 4b는 일실시예에 따른 인코더 및 디코더를 이용한 동작을 설명하기 위한 도면들이다.
도 5a 및 도 5b는 일실시예에 따른 멀티 샘플링을 통하여 잠재 변수 벡터를 생성하는 동작을 설명하기 위한 도면들이다.
도 6은 일실시예에 따른 출력 응답 및 검증 응답을 생성하는 방법을 예시적으로 설명하기 위한 도면이다.
도 7은 일실시예에 따른 출력 응답 및 검증 응답을 비교하는 방법을 예시적으로 설명하기 위한 도면이다.
도 8은 일실시예에 따른 응답 추론을 위한 학습 방법을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 응답 추론을 위한 학습 방법을 설명하기 위한 도면이다.
도 10은 일실시예에 따른 응답 추론을 위한 학습 방법을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 장치의 구성의 예시도이다.
| 사용자 입력 | 키워드 | 출력 응답 |
| 이번 연휴는 혼자 보내야해 | 영화 | 그것도 나쁘지 않죠. 평소 보고 싶었던 영화를 VOD로 감상하는 건 어때요? |
| 책 | 차분한 연휴가 되겠네요! 사 놓고 읽지 않았던 책을 읽어보는 건 어때요? |
| 사용자 입력 | 감정 | 출력 응답 |
| 요즘 좋아하는 음악 장르는 재즈야 | positive | 저도 좋아요. |
| negative | 저는 클래식에 더 관심이 많아요. |
| 사용자 입력 | 태도 | 출력 응답 |
| 오늘 일이 너무 하기 싫어! | 나태 | 하기 싫은 일은 그만 하고, 시원한 맥주 한잔 어때요? |
| 근면 | 정말 힘들겠어요. 그래도 조금만 힘내서 일을 처리하고 나면 마음이 한결 가벼워질 거에요. |
| 사용자 입력 | 성향 | 출력 응답 |
| 투자 정보를 알려줘. | 공격투자형 | 헤지 펀드 추천 |
| 적극투자형 | 인덱스 펀드 추천 | |
| 위험중립형 | 혼합형 펀드 추천 | |
| 안전추구형 | 채권형 펀드 추천 | |
| 안전형 | 예금 추천 |
| 사용자 입력 | 컨트롤 입력 | 출력 응답 |
| A | a1에 기초하여 생성된 특징 벡터 | a1 |
| a2 에 기초하여 생성된 특징 벡터 | a2 | |
| a3 에 기초하여 생성된 특징 벡터 | a3 | |
| A' | b1 에 기초하여 생성된 특징 벡터 | b1 |
| a2' 에 기초하여 생성된 특징 벡터 | a2' |
Claims (20)
- 프로세서를 포함하는 응답 추론 장치의 동작 방법에 있어서,
사용자 입력을 획득하는 단계;
상기 프로세서가 상기 사용자 입력을 인코딩하여, 복수의 응답들에 대응하는 영역들을 포함하는 잠재 변수 영역 공간(latent variable region space) 내 잠재 변수 벡터(latent variable vector)를 생성하는 단계;
상기 프로세서가 상기 잠재 변수 벡터와 특정 위상 차를 가지는 검증 벡터(validation vector)를 생성하는 단계;
상기 프로세서가 상기 잠재 변수 벡터를 디코딩하여, 상기 잠재 변수 벡터가 속하는 영역에 대응하는 출력 응답을 생성하는 단계;
상기 프로세서가 상기 검증 벡터를 디코딩하여, 상기 검증 벡터가 속하는 영역에 대응하는 검증 응답(validation response)을 생성하는 단계;
상기 프로세서가 상기 출력 응답 및 상기 검증 응답을 비교함으로써, 상기 출력 응답을 검증하는 단계; 및
상기 프로세서가 상기 검증 결과에 따라, 상기 사용자 입력에 대응하여 상기 출력 응답을 출력하는 단계
를 포함하는
응답 추론 방법.
- 제1항에 있어서,
상기 검증 벡터를 생성하는 단계는
상기 프로세서가 상기 검증 벡터의 위상이 상기 잠재 변수 벡터의 위상과 미리 정해진 위상 차이를 가지도록, 상기 검증 벡터를 생성하는 단계
를 포함하는,
응답 추론 방법.
- 제1항에 있어서,
상기 검증 벡터를 생성하는 단계는
상기 프로세서가 상기 잠재 변수 벡터의 위상과 반대되는 위상을 가지도록 상기 검증 벡터를 생성하는 단계
를 포함하는,
응답 추론 방법.
- 제1항에 있어서,
상기 검증 벡터는 복수의 검증 벡터들을 포함하고,
상기 검증 벡터를 생성하는 단계는
상기 프로세서가 상기 검증 벡터들의 위상들이 상기 잠재 변수 벡터의 위상과 미리 정해진 위상 차이들을 가지도록, 상기 검증 벡터들을 생성하는 단계
를 포함하는,
응답 추론 방법.
- 제1항에 있어서,
상기 잠재 변수 벡터는 상기 사용자 입력에 대응하는 응답을 생성하기 위해 잠재된 정보 변수들을 포함하는 다차원의 벡터인,
응답 추론 방법.
- 제1항에 있어서,
상기 잠재 변수 벡터를 생성하는 단계는
상기 프로세서가 상기 사용자 입력을 인코딩하여 잠재 변수를 생성하는 단계; 및
상기 프로세서가 상기 잠재 변수에 대응하는 상기 잠재 변수 영역 공간에 포함된 상기 영역들 중 어느 하나의 영역에 속하는 잠재 변수 벡터를 생성하는 단계
를 포함하는,
응답 추론 방법.
- 제6항에 있어서,
상기 어느 하나의 영역에 속하는 잠재 변수 벡터를 생성하는 단계는
상기 프로세서가 상기 잠재 변수 영역 공간을 표현하는 확률 분포에 기초하여, 복수의 벡터들을 샘플링하는 단계; 및
상기 프로세서가 상기 샘플링된 벡터들에 기초하여, 상기 잠재 변수 벡터를 생성하는 단계
를 포함하는,
응답 추론 방법.
- 제1항에 있어서,
상기 출력 응답을 검증하는 단계는
상기 프로세서가 상기 출력 응답을 점수화하는 단계;
상기 프로세서가 상기 검증 응답을 점수화하는 단계; 및
상기 프로세서가 상기 출력 응답에 대응하는 점수와 상기 검증 응답에 대응하는 점수를 비교하는 단계
를 포함하는,
응답 추론 방법.
- 제8항에 있어서,
상기 비교하는 단계는
상기 프로세서가 상기 출력 응답에 대응하는 점수와 상기 검증 응답에 대응하는 점수 사이의 차이가 미리 정해진 값보다 큰지 여부를 판단하는 단계
를 포함하는,
응답 추론 방법.
- 제1항에 있어서,
상기 사용자 입력은 일상 대화 내에서 특정 대답을 의도하지 않는 사용자 발화이고,
상기 복수의 응답들은 상기 사용자 발화에 대응하는 서로 다른 답변들인,
응답 추론 방법.
- 제1항에 있어서,
상기 잠재 변수 벡터를 생성하는 단계는
상기 프로세서가 인코더를 이용하여 상기 사용자 입력을 인코딩하는 단계를 포함하고,
상기 인코더의 뉴럴 네트워크는 상기 사용자 입력에 대응하는 입력 레이어와 상기 잠재 변수를 모델링 하는 확률 분포의 평균 및 분산에 대응하는 출력 레이어를 포함하는,
응답 추론 방법.
- 제1항에 있어서,
상기 출력 응답을 생성하는 단계는
상기 프로세서가 디코더를 이용하여 상기 잠재 변수 벡터를 디코딩하는 단계를 포함하고,
상기 검증 응답을 생성하는 단계는
상기 프로세서가 상기 디코더를 이용하여 상기 검증 벡터를 디코딩하는 단계를 포함하며,
상기 프로세서가 상기 디코더의 뉴럴 네트워크는 상기 잠재 변수 벡터에 대응하는 입력 레이어와 상기 출력 응답에 대응하는 출력 레이어를 포함하는,
응답 추론 방법.
- 제12항에 있어서,
상기 디코더의 뉴럴 네트워크는 상기 검증 벡터에 대응하는 입력 레이어와 상기 검증 응답에 대응하는 출력 레이어를 포함하는,
응답 추론 방법.
- 프로세서를 포함하는 학습 장치의 동작 방법에 있어서,
트레이닝 입력을 획득하는 단계;
상기 프로세서가 상기 트레이닝 입력에 대응하는 복수의 트레이닝 응답들 중 어느 하나의 트레이닝 응답을 획득하는 단계;
상기 프로세서가 학습시키고자 하는 인코더로 상기 트레이닝 입력을 인가하여, 잠재 변수를 생성하는 단계;
상기 프로세서가 상기 잠재 변수에 대응하는 잠재 변수 영역 공간에 포함되는 영역의 트레이닝 잠재 변수 벡터를 생성하는 단계;
상기 프로세서가 학습시키고자 하는 디코더로 상기 트레이닝 잠재 변수 벡터를 인가하여, 출력 응답을 생성하는 단계;
상기 프로세서가 상기 출력 응답 및 상기 트레이닝 응답에 기초하여, 상기 인코더 및 상기 디코더의 뉴럴 네트워크를 학습시키는(training) 단계
상기 프로세서가 상기 트레이닝 잠재 변수 벡터와 특정 위상 차를 가지는 트레이닝 검증 벡터를 생성하는 단계;
상기 프로세서가 상기 디코더로 상기 트레이닝 검증 벡터를 인가하여, 트레이닝 검증 응답을 생성하는 단계;
상기 프로세서가 상기 출력 응답과 상기 트레이닝 검증 응답을 구별하도록 동작하는 판별기(Discriminator)를 학습시키는 단계; 및
상기 프로세서가 상기 판별기가 상기 출력 응답과 상기 트레이닝 검증 응답을 구별하지 못하도록, 상기 인코더 및 상기 디코더의 뉴럴 네트워크를 학습시키는 단계
를 포함하는,
응답 추론을 위한 학습 방법.
- 삭제
- 제14항에 있어서,
상기 트레이닝 잠재 변수 벡터는 상기 트레이닝 입력에 대응하는 응답을 생성하기 위해 잠재된 정보 변수들을 포함하는 다차원의 벡터인,
응답 추론을 위한 학습 방법.
- 제14항에 있어서,
상기 잠재 변수 영역 공간은 상기 복수의 트레이닝 응답들에 대응하는 복수의 영역들을 포함하는,
응답 추론을 위한 학습 방법.
- 제14항에 있어서,
상기 트레이닝 잠재 변수 벡터를 생성하는 단계는
상기 프로세서가 상기 잠재 변수 영역 공간을 표현하는 확률 분포에 기초하여, 복수의 벡터들을 샘플링하는 단계;
상기 프로세서가 컨트롤 입력을 랜덤화하여 임베디드 컨트롤 입력을 생성하는 단계;
상기 프로세서가 상기 임베디드 컨트롤 입력을 상기 샘플링된 벡터들에 각각 적용하는 단계; 및
상기 프로세서가 상기 임베디드 컨트롤 입력이 적용된 상기 샘플링된 벡터들을 가중 합(weighted sum)하여 트레이닝 잠재 변수 벡터를 생성하는 단계
를 포함하는,
응답 추론을 위한 학습 방법.
- 하드웨어와 결합되어 제1항 내지 제14항 및 제16항 내지 제18항 중 어느 하나의 항의 방법을 실행시키기 위하여 기록 매체에 저장된 컴퓨터 프로그램.
- 프로그램이 기록된 메모리; 및
상기 프로그램을 수행하는 프로세서
를 포함하고,
상기 프로그램은,
사용자 입력을 획득하는 단계;
상기 사용자 입력을 인코딩하여, 복수의 응답들에 대응하는 영역들을 포함하는 잠재 변수 영역 공간(latent variable region space) 내 잠재 변수 벡터(latent variable vector)를 생성하는 단계;
상기 잠재 변수 벡터와 특정 위상 차를 가지는 검증 벡터(validation vector)를 생성하는 단계;
상기 잠재 변수 벡터를 디코딩하여, 상기 잠재 변수 벡터가 속하는 영역에 대응하는 출력 응답을 생성하는 단계;
상기 검증 벡터를 디코딩하여, 상기 검증 벡터가 속하는 영역에 대응하는 검증 응답(validation response)을 생성하는 단계;
상기 출력 응답 및 상기 검증 응답을 비교함으로써, 상기 출력 응답을 검증하는 단계; 및
상기 검증 결과에 따라, 상기 사용자 입력에 대응하여 상기 출력 응답을 출력하는 단계
를 수행하는
응답 추론 장치.
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020190122021A KR102814913B1 (ko) | 2019-10-02 | 2019-10-02 | 응답 추론 방법 및 장치 |
| US16/829,180 US11295729B2 (en) | 2019-10-02 | 2020-03-25 | Response inference method and apparatus |
| CN202010392362.5A CN112597270B (zh) | 2019-10-02 | 2020-05-11 | 响应推断方法和设备 |
| EP20181969.5A EP3800574A1 (en) | 2019-10-02 | 2020-06-24 | Response inference method and apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020190122021A KR102814913B1 (ko) | 2019-10-02 | 2019-10-02 | 응답 추론 방법 및 장치 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20210039598A KR20210039598A (ko) | 2021-04-12 |
| KR102814913B1 true KR102814913B1 (ko) | 2025-05-30 |
Family
ID=71170249
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020190122021A Active KR102814913B1 (ko) | 2019-10-02 | 2019-10-02 | 응답 추론 방법 및 장치 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11295729B2 (ko) |
| EP (1) | EP3800574A1 (ko) |
| KR (1) | KR102814913B1 (ko) |
| CN (1) | CN112597270B (ko) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3816865A1 (en) * | 2019-10-30 | 2021-05-05 | Robert Bosch GmbH | Determining an output by aggregating parent instances |
| US11625543B2 (en) * | 2020-05-31 | 2023-04-11 | Salesforce.Com, Inc. | Systems and methods for composed variational natural language generation |
| KR20220040050A (ko) | 2020-09-23 | 2022-03-30 | 삼성전자주식회사 | 자연어 처리 모델 트레이닝 방법 및 장치와 컴퓨팅 장치 |
| US12518129B2 (en) * | 2020-11-30 | 2026-01-06 | Oracle International Corporation | Method and system for over-prediction in neural networks |
| US11750848B2 (en) * | 2020-11-30 | 2023-09-05 | Google Llc | High-fidelity generative image compression |
| US12530536B2 (en) * | 2022-05-19 | 2026-01-20 | Google Llc | Mixture-of-expert approach to reinforcement learning-based dialogue management |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170161635A1 (en) | 2015-12-02 | 2017-06-08 | Preferred Networks, Inc. | Generative machine learning systems for drug design |
| US20180218261A1 (en) | 2017-01-31 | 2018-08-02 | Paypal, Inc. | Fraud prediction based on partial usage data |
| WO2018224690A1 (en) * | 2017-06-09 | 2018-12-13 | Deepmind Technologies Limited | Generating discrete latent representations of input data items |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5699270A (en) * | 1995-06-23 | 1997-12-16 | Exxon Research And Engineering Company | Method for preparing lubrication oils (LAW232) |
| US8666515B2 (en) | 2009-01-07 | 2014-03-04 | Cfi Group Usa, Llc | Statistical impact analysis machine |
| US8521477B2 (en) * | 2009-12-18 | 2013-08-27 | Electronics And Telecommunications Research Institute | Method for separating blind signal and apparatus for performing the same |
| GB201718756D0 (en) * | 2017-11-13 | 2017-12-27 | Cambridge Bio-Augmentation Systems Ltd | Neural interface |
| KR102071582B1 (ko) * | 2017-05-16 | 2020-01-30 | 삼성전자주식회사 | 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치 |
| KR102608469B1 (ko) * | 2017-12-22 | 2023-12-01 | 삼성전자주식회사 | 자연어 생성 방법 및 장치 |
| US20200041276A1 (en) * | 2018-08-03 | 2020-02-06 | Ford Global Technologies, Llc | End-To-End Deep Generative Model For Simultaneous Localization And Mapping |
| KR20200023664A (ko) * | 2018-08-14 | 2020-03-06 | 삼성전자주식회사 | 응답 추론 방법 및 장치 |
| CN110083710B (zh) * | 2019-04-30 | 2021-04-02 | 北京工业大学 | 一种基于循环神经网络与潜变量结构的词语定义生成方法 |
| US11010421B2 (en) * | 2019-05-09 | 2021-05-18 | Microsoft Technology Licensing, Llc | Techniques for modifying a query image |
| US10937213B2 (en) * | 2019-06-27 | 2021-03-02 | Fuji Xerox Co., Ltd. | Systems and methods for summarizing and steering multi-user collaborative data analyses |
-
2019
- 2019-10-02 KR KR1020190122021A patent/KR102814913B1/ko active Active
-
2020
- 2020-03-25 US US16/829,180 patent/US11295729B2/en active Active
- 2020-05-11 CN CN202010392362.5A patent/CN112597270B/zh active Active
- 2020-06-24 EP EP20181969.5A patent/EP3800574A1/en not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170161635A1 (en) | 2015-12-02 | 2017-06-08 | Preferred Networks, Inc. | Generative machine learning systems for drug design |
| US20180218261A1 (en) | 2017-01-31 | 2018-08-02 | Paypal, Inc. | Fraud prediction based on partial usage data |
| WO2018224690A1 (en) * | 2017-06-09 | 2018-12-13 | Deepmind Technologies Limited | Generating discrete latent representations of input data items |
Non-Patent Citations (1)
| Title |
|---|
| Park, Yookoon, Jaemin Cho, and Gunhee Kim. A hierarchical latent structure for variational conversation modeling. arXiv preprint arXiv:1804.03424. 2018. |
Also Published As
| Publication number | Publication date |
|---|---|
| US20210104231A1 (en) | 2021-04-08 |
| CN112597270B (zh) | 2025-01-03 |
| CN112597270A (zh) | 2021-04-02 |
| EP3800574A1 (en) | 2021-04-07 |
| KR20210039598A (ko) | 2021-04-12 |
| US11295729B2 (en) | 2022-04-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102814913B1 (ko) | 응답 추론 방법 및 장치 | |
| KR102281581B1 (ko) | 목표지향 대화시스템에서의 대화상태 추적방법 및 장치 | |
| CN112905735A (zh) | 用于自然语言处理的方法和设备 | |
| Zhao et al. | Adversarially regularized autoencoders | |
| US20210327428A1 (en) | Adversarial learning and generation of dialogue responses | |
| KR102342066B1 (ko) | 뉴럴 네트워크 모델을 이용한 기계 번역 방법, 장치 및 그 장치를 학습시키기 위한 방법 | |
| Alaluf et al. | Myvlm: Personalizing vlms for user-specific queries | |
| KR20200023664A (ko) | 응답 추론 방법 및 장치 | |
| Deldjoo et al. | Recommendation with generative models | |
| CN112668317B (zh) | 用于确定输出词法单元的方法和设备 | |
| CN113448477A (zh) | 交互式图像编辑方法、装置、可读存储介质及电子设备 | |
| JP7315065B2 (ja) | 質問生成装置、質問生成方法及びプログラム | |
| US11244015B1 (en) | Projecting queries into a content item embedding space | |
| Olabiyi et al. | An adversarial learning framework for a persona-based multi-turn dialogue model | |
| CN113822125A (zh) | 唇语识别模型的处理方法、装置、计算机设备和存储介质 | |
| KR20200046189A (ko) | 생성적 적대 신경망에 기반한 협업 필터링을 위한 방법 및 시스템 | |
| Bi et al. | Parameters vs. context: Fine-grained control of knowledge reliance in language models | |
| Ali et al. | Automatic text‐to‐gesture rule generation for embodied conversational agents | |
| JP2017199355A (ja) | レコメンデーション生成 | |
| CN114020954A (zh) | 一种用于体现用户意图和风格的个性化图像描述方法 | |
| Moullec et al. | Cheaper Spaces: M. Moullec, I. Douven | |
| CN119790396A (zh) | 基于证据链的计算机化问题回答 | |
| CN120611088A (zh) | 基于大语言模型的养老机构推荐方法、装置及设备 | |
| US12367329B1 (en) | Protein binder search | |
| Shukla et al. | DeepInsight: a CNN-based approach for machine reading comprehension in query answering systems and its applications |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20191002 |
|
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220907 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20191002 Comment text: Patent Application |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20241024 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20250307 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20250527 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20250528 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |