You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
reacted with thumbs up emoji reacted with thumbs down emoji reacted with laugh emoji reacted with hooray emoji reacted with confused emoji reacted with heart emoji reacted with rocket emoji reacted with eyes emoji
-
Abstract
대화형 추천 시스템(CRS)은 대화를 통한 고퀄의 아이템을 추천하는 것을 타깃함
RELATED WORK
Conversational Recommendation
기존의 CRS는 복잡한 구조에서 한계가 극명했음
본 논문에서는 generation 기반 CRS에 초점을 두고 복잡한 구조를 풀어서 여러 sub tasks로 바라보고, 성능을 개선
LLM Recommendation
FRAMEWORK
Sub-Task Detection
서로 다른 sub-task를 파악하기 위해 schema를 활용.
각각의 sub-task를 통합하고 그 기준을 LLM이 잘 이해하도록 하기 위해 schema based와 demonstration based 두 가지로 나눔.
Schema based instruction
Demonstration based instruction
Model Matching
Sub-task Execution
Response Generation
Summary Based Generation
REINFORCEMENT LEARNING FROM CRSS PERFORMANCE FEEDBACK
해당 논문에서는 이러한 추천 방식에 대한 성능을 높이기 위해 강화학습 과정을 추가적으로 진행
리워드에 들어가는 스코어를 ‘성능(Performance)’으로 바라보고 진행
$J(\Theta) = \mathbb{E}{S \sim \mathcal{L}(T{\text{train}}|\Theta)}[\mathcal{R}]$
EXPERIMENTS
Datasets:
Evalutation Measures
추천성능
대화 성능 평가:
대화 성능을 평가하기 위한 관련성 기반 및 다양성 기반 평가 메트릭
Language Model
두 가지 오픈 소스 대형 언어 모델인 Flan-T5-Large(770M 파라미터)와 LLaMA-7b(7B 파라미터)를 사용
EXPERIMENTAL RESULTS AND DISCUSSION
Overall Performance
Ablation Study
세 가지 CRS의 성능 향상을 위한 요소에 대한 정량화를 위한 연구 수행
Mechanisms to Instruct LLM
각 프롬프트(instruct) 메커니즘에 따른 테스트
프롬프트에서 어떤 메커니즘이든 제거되면 추천과 대화 성능이 상당히 저하
CASE STUDY
TG-ReDial을 베이스라인 모델로 두어 LLMCRS와 성능 비교
LLMCRS
TG-ReDial
Beta Was this translation helpful? Give feedback.
All reactions