1. MONET: Modality-Embracing Graph Convolutional Network and Target-Aware Attention for Multimedia Recommendation
(Graph, Transformer&Attention, MultiModal)
<Abstract>
MONET는 논문 제목에서도 알 수 있듯이 GCN, 즉 Graph Convoution Network를 활용한 추천시스템 모델이다.
여기에 Multi-Modal과 사용자-아이템 interaction이 같이 사용된다.
기존은 두 가지 한계점이 있는데,
1) 사용자의 아이템 선호도를 나타낼 순 있지만, collaborative signal에만 초점을 맞춰서 final 사용자, 아이템 임베딩에서 충분한 multimodal 특징을 보여주기 어렵다.
2) 사용자가 multimodal 특징을 고려해서 특정 item 선호도를 결정할지라도 해당 item의 multimodal특징에 관계없이 single embedding으로 사용자를 보여줘버린다.
이 논문은 그래서, MONET를 제안했는데 2가지 핵심아이디어로 이루어져 있다.
1) modality-embracing GCN(MeGCN)
2) target-aware attention
이를 통해 다음과 같은 성과를 보여줬다.
i) the significant superiority of MONET over seven state-of-the-art competitors (up to 30.32% higher accuracy in terms of recall@20, compared to the best competitor)
ii) the effectiveness of the two core ideas in MONET.
<Conclusion>
이 논문에서는 두가지 중요한 포인트를 보여줬는데,
1) 사용자-아이템 interaction에서 multimodal feature와 collaborative signal 모두 fianl 임베딩에 잘 반영되어야 한다는 것이다.
2) 대상 item에 더 관련이 있는 target-oriented 사용자 임베딩을 만들어내는게 중요한데, multimodal 특징이 더 반영된 타겟 아이템과 더 관련된 사용자와 상호작용한 아이템의 interest
we demonstrated the following two important points in the sense of capturing a user’s preference for a target item more precisely: (1) both multimodal features and collaborative signals in user–item interactions should be well reflected in the final user/item embeddings; (2) it is required to generate a target-oriented user embedding where the interests in her interacted items more relevant to the target item w.r.t. multimodal features are more reflected
코드 : https://github.com/Kimyungi/MONET
2. MUSE: Music Recommender System with Shuffle Play Recommendation Enhancement
(Contrastive, Sequential, Augmentation)
<Abstract>
기존 음악추천시스템은 음악 도메인에만 있는 특이점을 간과한다. 특히 음악 셔플 플레이는 random sequence에서 track을 제공하기 때문이다.
이 논문에서는 self-supervised learning기반의 MUSE를 제안함으로써 original session과 augmented session간의 agreement를 제안한다. (transition-based augmentation이라는 방법론 사용)
또한, item-based matching과 similarity-based matching방법 또한 사용하였다.
이를 통해 아래와 같은 우수한 성능을 보여주었다.
<Conclusion>
MUSE는 Shuffle play환경에서 우수한 성능을 보여주었다.
3. LLMRec: Benchmarking Large Language Models on Recommendation Task
(LLM)
<Abstract>
최근 ChatGPT가 NLP에서 큰 성과를 보여주고 있다. But, 추천시스템에서는 충분하게 연구되지 않아서 이 논문에서는 LLMRec이라는 모델을 제온한다. 이는 LLM 베이스의 추천시스템으로 supervised finetuning 모델이다.
기존의 rank예측에서는 잘되지만 Sequential과 direct 추천에서는 잘 되지 않던 시스템보다 나은 성능을 보여준다.
<Conclusion>
이 논문에서는 LLM기반의 추천시스템 LLMRec를 제안했다. 이는 기존모델을 와 supervised fine-tuning setting에서 LLM의 성능을 벤치마크했으며 좋은 성능을 보여주었다.
댓글