Search

Towards Universal Sequence Representation Learning for Recommender Systems

카테고리
LLM4REC 논문리뷰
Index
ML/DL
RecSys
UnisREC
LLM
날짜
2023/07/16
발제자: 이해현

Motivation

본 연구는 기존의 명시적인 ID modeling의 한계를 극복하기 위해 상품 설명이나 상품 브랜드와 같은 아이템과 연관된 텍스트 정보인 item text를 사용한 UniSRec SRL이 multi domain, platform에서도 활용될 수 있도록 합니다.
효과적인 sequential 추천시스템을 개발하기 위해서 Sequence Representation Learning(SRL) 기법이 제안됨 (SASRec, Bert4Rec)
→ 대부분의 SRL 기법에서는 사용자가 한 행동에 대한 맥락의 고려하여 새로운 제품을 추천
→ 사용자 선호도를 효과적으로 파악하기 위해 명시적으로 item ID을 사용하는 시퀀스 모델들이 개발됨
→ 사용자의 과거 행동 데이터를 기반으로 한 모델에 Sequence Representation Learning을 수행하여 아이템 특성과 사용자와 아이템간의 sequential interaction 특성을 파악하는 것을 목표로 함
→ 하지만, 이러한 방법들은 학습된 모델을 새로운 추천 시나리오에 적용시키기 어렵다는 문제가 있음
[문제 상황]
서로 다른 도메인 사이에는 textual semantic space(문맥적 의미 차이)가 존재하기 때문에 새로운 도메인에 대한 추천 작업이 어려울 수 있음
multi-domain data를 적용해서 학습을 진행하다보면 타겟 도메인의 성능 향상에는 적합하지 않을 수 있음
→ 해당 문제에 대한 해결책으로 본 연구에서는 UniSRec(Universal Sequenced Representation Learning)를 제시
UniSREC이 제시하는 Universal Sequenced Representation Learning
다른 추천 시나리오(플랫폼, 도메인)들에도 적용할 수 있는 representation들을 학습하기 위해 아이템들에 대한 item text(상품 상세설명, 상품 브랜드 명)를 활용
ID-agonistic Representation 학습이 원칙(기본적으로 사용자와 아이템의 ID를 무시함)
[Method]
1.
Parametric Whitening , Mixture-of-Experts enhanced adapter
→ 다양한 추천 시나리오(cross-domain, platform)에서 universal item representation을 학습할 수 있도록 함
2.
2개의 Constrastive pre-training task(sequence-item, sequence-sequence)를 진행하여 다양한 도메인에서 볼 수 있는 universal sequence representation을 얻고자 함
[목표]
UniSRec를 사용하여 cross-domain, cross-platform 환경에서의 추천 성능 향상을 목표로 함
cross-domain : 다양한 도메인의 데이터(넓은 범위의 데이터)를 사용하여 pretraining task를 진행하였을 때 타겟 도메인의 추천 성능 향상
cross-platform: universal sequence representation pretraining 작업을 통해 기존 플랫폼 이외의 사용자와 아이템 특성이 겹치지 않은 다른 플랫폼에서도 일관된 추천을 제공
Cross-Domain VS Cross-platform
1.
Cross-domain 추천: Cross-domain 추천은 여러 가지 독립적인 도메인 또는 관심 영역에서 정보를 활용하여 추천 하는 것 (여기서 domain이란 영화, 책, 제품 등 특정 카테고리의 아이템)
목표: 한 도메인의 사용자 정보(선호도, 행동)를 사용하여 다른 도메인에서의 추천 품질을 향상시키는 것
→ 사용자가 영화에 높은 평가를 준다면 그들의 선호도는 특정 유형의 책이나 음악과도 일치할 수 있음
2.
Cross-platform 추천: Cross-platform 추천은 웹 애플리케이션, 모바일 앱, 스마트 TV, 소셜 미디어 등 다양한 플랫폼이나 매체에서 추천을 제공하는 것을 의미(넓은 범위)
→ 비슷한 서비스 환경이지만, 사용자 특성이나 아이템 특성이 다른 플랫폼들간의 추천(좁은 범위)
목표: 사용자가 사용하는 장치나 플랫폼에 관계없이 일관된 개인화된 추천을 제공하는 것
→ 다양한 플랫폼에서도 일관된 추천 경험을 유지하고 추천이 여러 플랫폼에서도 일관되게 유지

Methodology

general interaction sequence를 input으로 사용하여 사전학습을 통해 universal representation을 학습
General input formulation
: 유저와 상호작용한 각 item i는 고유한 item ID, 상품 설명과 같은 item text 와 맵핑되어서 일반적인 형태의 interaction sequence로 변환됨
각 sequence는 특정 도메인에서의 유저의 모든 interaction behavior를 포함
유저는 다른 도메인에서도 다수의 behavior sequence를 생성할 수 있음
본 연구에서 item ID는 보조적인 정보로 밖에 쓰이지 않음(명시되지 않는 한, item ID는 input으로 사용되지 않음)

2.2 Universal Textual Item Representation

기존의 SRL 연구에서는 item ID가 사전에 주어지고, ID embedding을 통해서 학습이 진행되는 방식으로 이루어짐
→ 하지만 cross domain간 item ID에서 사용되는 용어들도 매우 상이하기 때문에 전이학습이 잘 이루어지지 않음
Inductive Setting 과 Transductive Setting ⓵ Inductive Setting : 모델이 training 데이터셋에서 본 적이 없는(unseen) 테스트 데이터셋의 레이블을 예측 해야하는 경우(지도 학습 방식과 유사) 미지의 도메인의 새로운 아이템을 추천하는 경우, 아이템 ID 기반의 추천 모델로는 task 해결이 어려운 경우가 많음 ⓶ Transductive Setting : 사전에 training 데이터셋과 test 데이터셋을 모두 관찰하는 경우, 테스트 데이터에 레이블은 없지만 그 안에서 유의미한 패턴 추출을 진행 → 이미 training 데이터셋에서 target 도메인의 아이템이 등장하는 경우 → 보통 ID 임베딩과 텍스트 임베딩을 결합해서 아이템의 최종 representation을 구성
[Solution]
1.
사전학습된 Language Model(BERT)을 text embedding
2.
parametric whitening 기법과 ⓶ Mixture-of-Experts(MoE) enhanced adapter을 사용하여 텍스트 의미를 보다 보편적인 형태로 변환

2.2.1 Textual Item Encoding via Pretrained Language Model

BERT 모델을 사용하여 universal text representation을 학습
item ii 와 대응되는 item text tit_i 가 주어졌을때,
[CLS]와 각 item text의 단어들 {w1,w2,...wc{w_1, w_2, ... w_c}} 를 순서대로 연결하여 BERT의 input sequence로 주입

2.2.2. Semantic Transformation via Parametric Whitening

BERT 모델을 통해 semantic representation을 얻을 수 있지만, multi-domain의 다양한 아이템들에 대한 텍스트를 사용하게 되면 의미 차이가 심해져 추천에 적합하지 않은 결과가 나올 수 있음
→ 간단한 linear transformation을 사용하여 BERT representation에서부터 의미차이가 큰 표현들을 추출
→ Parametric Whitening을 통해 각 아이템의 임베딩에 대해서 서로 다른 아이템의 임베딩 간의 편향을 줄이고자 함

2.2.3. Domain Fusion and Adaptation via MoE-enhanced Adaptor

도메인마다 자주 사용되는 item text 단어들이 다르기 때문에 universal item representation을 효과적으로 학습하기 위해서는 서로 다른 도메인들 간의 semantic gap(의미 차이)을 학습해야 함.
ex) 음식 도메인에서는 natural, sweet, fresh와 같은 단어들이 많이 사용되지만, 영화 쪽에서는 war, love, story와 같은 단어들이 많이 등장.
→ 기존 BERT embedding에 서로 다른 도메인이 공유하고 있는 공통적인 semantic space를 맵핑하는 whitening embedding 생성
→ whitening embedding을 여러 개 조합하여 학습을 진행하면 비슷한 의미를 공유하고 있는 도메인 간의 융합 및 adaptation 진행
MoE(Mixture-of-Expert) 아키텍쳐를 사용하여 학습;
expertsG whitening transformation 모듈을 사용하고, 아래의 parameterized router를 통해 MoE-enhanced adapter를 구성
→ multiple whitening transformation 학습을 통해 개별 item의 representation이 향상됨

2.3 Universal Sequence Representation

2 가지의 Constrastive Pretraining 작업을 통해 사용자의 행동 시퀀스를 다른 도메인에서의 행동 시퀀스와 비교해서 universal sequence representation를 학습하고자 함
서로 다른 도메인간의 의미론적 연관성을 파악하여 다양한 추천 시나리오에 적용하고자 함
self-attentive sequence encoding을 할 수 있는 아키텍쳐인 Transformer를 기반으로 2가지의 Constrastive Pretraining 을 진행
Contrastive Learning

1. Sequence-item contrastive task

다양한 도메인에서의 사용자 sequential context와 아이템의 상관관계를 파악하기 위해
타겟 도메인에서의 사용자 sequence와 다음에 추천될 item을 pairing 하여 embedding representation 생성
{ <s1,v1>,....,<sB,vB> {<s_1, v_1>, .... , <s_B, v_B>}}
vj{v_{j'}} : 멀티 도메인에 속한 아이템들 (negative pair 형성)
Sequence-Item Constrastive Loss function

2. Sequence-sequence contrastive task

: multi-domain sequence 와 augmented sequence 표현들을 구별하기 위해서 진행하는 사전학습 작업
→ 본 연구에서는 원래 아이템 텍스트에 랜덤하게 단어들을 추가하는 word drop augmentation 기법을 사용
Sequence-sequence 작업에서 사용하는 augmentation 기법
타겟 시퀀스 sjs_j 에대한 augmented sequence는 postive pair를 형성하고, 멀티 도메인 sequence는 negative pair를 형성
Sequence-Sequence Constrastive Loss function

Experiments

1.
Datasets
→ Amazon 리뷰 데이터셋을 사용, cross-domain 환경과 cross-platform 환경에서 실험을 진행
→ Amazon 데이터셋에 있는 상품명, 상품 카테고리, 상품 브랜드명 필드를 합쳐서 item text로 사용
Pre-trained datasets
→ Amazon 리뷰 데이터셋에서 5가지 카테고리를 선정
Grocery and Gourmet Food
식료품 카테고리
Home and Kitchen
인테리어 및 주방용품
CDs and Vinyl
음반 CD 및 LP
Kindle Store
Amazon Kindle e-book
Movies and TV
영화와 TV 프로그램
Cross-domain datasets
→ pre-trained datasets 이외에의 5가지 추가적인 카테고리를 선정하여 cross-domain 환경에서의 성능평가 진행
Prime Pantry
Amazon에서 유료 회원들을 대상으로 한 식재료 온라인 스토어
Industrial and Scientific
다양한 산업현장에서 사용되는 전문용품 및 전자제품
Musical Instruments
악기 및 음향장비
Arts
예술작품 및 재료, 사무용품
Crafts and Sewing
공예품 및 바느질용품
Cross-platform datasets
→ Amazon 플랫폼의 유저나 상품과 겹치지 않는 영국의 온라인 쇼핑몰 데이터셋을 사용하여 cross-platform에서의 성능평가 진행
2.
Evaluation Settings
UniSRectUniSRec_t : item text만 사용하여 finetuning한 case
UniSRect+ID UniSRec_{t+ID}: item text와 item ID 모두 사용하여 finetuning한 case
Recall@N, NDCG@N 지표를 사용하여 성능 평가 진행 (N: 추천 아이템 개수를 의미; 10, 50을 사용)
→ Leave-one-out Strategy를 사용하여 test data, validation data, training data를 구성

3.2 Overall Performance

Improv.Improv. : 가장 성능이 좋은 baseline 모델과 UniSRectUniSRec_t , UniSRect+ID UniSRec_{t+ID} 의 성능 차이 비율
→ 표에 있는 9개의 모델에 대해 각각 pretrained dataset으로 사전학습을 진행하고, 추후 6개의 cross-domain, cross-platform 데이터셋으로 fine-tuning 진행
[결과]
UniSRect+ID UniSRec_{t+ID} 이 multi-domain 데이터셋에서 가장 좋은 성능을 보여줌
→ UniSREC의 parametric whitening 기법과 MoE-enhanced adapter 모듈 사용으로 인해서 다른 baseline 모델들과 비교했을 때 cross-domain 환경에서 가장 균등하게 universial item representation을 학습함
→ 특히, 영국 온라인 쇼핑몰 데이터셋에서 진행된 cross-platform 실험을 통해 다른 플랫폼에서도 domain fusion과 adaptation을 효과적으로 진행할 수 있다는 것을 알 수 있음
[다른 baseline 모델과의 비교]
1.
FDSA, S3S^3-REC 과 같은 text-enhanced sequential 모델은 UniSRec과 같이 item ID이외에도 item text을 추가적으로 사용하기 때문에 전통적인 sequential 추천모델(SASRec, BERT4Rec)보다 좋은 성능을 보임 → item id 뿐만 아니라 item text 를 넣어주는 게 효과적
2.
CCDR, RecGURU 또한 cross-domain 환경에서의 추천 성능 향상을 목표로 하는 모델들인데, 이둘은 사용자 표현만을 학습하는 반면, UniSREC은 아이템과 사용자 시퀀스 표현을 모두 학습한다는 차이가 있음.
3.
ZESRec 또한 universal sequence represetation learning을 위한 모델이지만, multi-domain interaction data를 활용해서 타겟 도메인의 추천성능을 높이는 것에는 좋은 성과를 보이지 못함
UniSREC과의 차이를 보여주기 위해서 실험에서 ZESRec의 경우, target domain에서만 fine-tuning을 진행

3.3 Further Analysis

3.3.1 Cross Domain Experiment

[결과]
5가지 데이터셋에서 사전학습을 진행한 모델(All)이 cross-domain 카테고리에서 fine-tuning 했을 때(Scientific, Online Retail) 가장 좋은 성능을 보임

3.3.2 Ablation Study

UniSRec의 각 method(⓵ Parametric Whitening, ⓶ MoE enhanced adapter, ⓷ Sequence-Item task, ⓸ Sequence-Sequence task)가 최종 퍼포먼스에 어떤 영향을 끼치는 지에 대한 실험
[결과]
MoE enhanced adapter가 없는 경우 성능이 낮음
→ MoE 어댑터가 domain fusion과 adaptation 성능을 높이는 가장 중요한 요소이기 때문

3.3.3 Performan Comparision w.r.t. Long-tail Items

Long-tail : 사용자들이 소수 의 인기 있는 항목에만 관심을 보여서 관심이 저조한 항목은 추천되지 못하는 문제 → 소수의 인기 콘텐츠가 전체 추천 콘첸츠의 비율을 차지하는 "비대칭척 쏠림 현상"이 나타날 수 있음
→ ‘Scientific’, ‘Online Retail’ 데이터 셋에서 롱테일 아이템에 대해 따로 진행한 성능 비교 실험
[결과]
UniSRect+ID UniSRec_{t+ID} 이 다른 baseline 모델 대비 가장 좋은 성적을 보임
→ ground-truth item이 유명하지 않은 경우에서도 ( [0,5) in Scientific, [0, 20) in Online Retail ) 효과적임
→ 추천에서의 cold-start 문제를 완화하는 데도 효과적

3.3.4 Case Study

→ 서로 다른 플랫폼(Amazon, UK retail shop)을 사용 중인 2명의 유저로부터 짧은 시퀀스를 가져옴
[결과]
두 사용자의 sequence에서 공통으로 ‘Dog’이라는 단어가 등장했고, 이와 의미적으로 연관성이 높은 ‘Cat’ 이라는 아이템이 추천됨
→ 사용자나 상품이 겹치지 않는 플랫폼에서도 UniSRec이 의미적 연관성을 잘 파악해서 타겟 플랫폼에 알맞는 추천을 한다는 것을 알 수 있음