cs 매일 한걸음씩
본문 바로가기
  • 매일 한걸음씩
  • 매일 한걸음씩
반응형

전체 글105

[추천시스템] CTR 모델에 대해 알아보자 1탄 : DIN, DIEN, DCN LLM활용한 추천시스템 코드를 보다보니 CTR 모델들에 대해 제대로 모르고 있는 듯하여 이참에 정리를 해보려 한다. 사실 각각의 게시물로 쓰려고 했는데, 서로 비교하는 데에는한 게시물로 정리하는 것이 나을 것 같아 정리해본다. CTR(Click Through Rate)는 영어 그대로 클릭할지 안할지 예측하는 Task이다.광고나 이커머스 쇼핑에서 CTR을 잘 예측해야 알맞게 추천할 수 있다. 1. DIN                - 기존 CTR모델들은 embedding&MLP 방식으로 진행함. 즉, vector를 저차원으로 임베딩한 뒤 MLP에 넣음  → 고정된 길이의 vector이니 정보손실 일어남. 다양한 선호도 파악 어려움  - 기존 다른 RNN기반의 모델들은 데이터사이가 거리가 멀어질수록 연관관계.. 2024. 8. 15.
[코드리뷰] Towards Open-World Recommendation with knowledge Augmentation from Large Language Models https://simonezz.notion.site/4-5-LLM-3aca6d35ca8c4496a05910e4a3f0ba9f?pvs=4 4-5주차. 각자의 LLM 코드 설명 | Notion코드 구조simonezz.notion.site 2024. 8. 15.
[논문리뷰] Towards Open-World Recommendation with knowledge Augmentation from Large Language Models Abstractㅇ 이전에 학습하고 배포하고를 각자 도메인에서 하다보니까 제한이 있었음. LLM이 등장하면서 이러한 gap을 메워줌. 지식들을 인코딩하고 추론능력을 보여줌으로써. ㅇ 그럼에도 불구하고, LLM을 그대로 추천에 쓰는건 만족스러운 결과를 못보여줬는데, 이 논문에서 Open-World Knowledge Augmented Recommendation(KAR) 프레임웍을 보여줌으로써 이를 해결하고자 한다. (유저선호도에 대한 reasoning knowledge & 아이템에 대한 factual knowledge)factorization prompting : 유저선호도에 대한 정확한 추론 이끌어냄hybrid-expert adaptor : 1)에서 만들어진 추론과 factual knowledge가 효과적으.. 2024. 6. 16.
[논문리뷰] How Can Recommender Systems Benefit from Large Language Models: A Survey 3.3 LLM as Scoring/Ranking Function  ㅇ scoring/ranking 단계의 최종 목표는 추천 item들의 리스트를 제공하는 것이다.  ㅇ LLM을 scoring/ranking function으로 사용함으로써 이러한 목표는 이뤄질 수 있다.   (rating prediction, item ID generation)  ㅇ Task에 따라, 저자들은 이에 대한 연구를 세가지로 분류     (1) item scoring task (2) item generation task (3) hybrid task (1) item scoring task  ㅇ item을 scoring할때, LLM은 pointwise function F(u,i)로 기능--> LLM(F)의 Output으로는 util.. 2024. 5. 24.
추천시스템 논문 3개 소개 1. MONET: Modality-Embracing Graph Convolutional Network and Target-Aware Attention for Multimedia Recommendation(Graph, Transformer&Attention, MultiModal) MONET는 논문 제목에서도 알 수 있듯이 GCN, 즉 Graph Convoution Network를 활용한 추천시스템 모델이다.여기에 Multi-Modal과 사용자-아이템 interaction이 같이 사용된다. 기존은 두 가지 한계점이 있는데,1) 사용자의 아이템 선호도를 나타낼 순 있지만, collaborative signal에만 초점을 맞춰서 final 사용자, 아이템 임베딩에서 충분한 multimodal 특징을 보여주기 어.. 2024. 2. 3.
[논문리뷰] LARGE-SCALE CONTRASTIVE LANGUAGE-AUDIO PRETRAINING WITHFEATURE FUSION AND KEYWORD-TO-CAPTION AUGMENTATION(CLAP) 오늘은 오랜만에 멀티모달모델에 대해 리뷰를 해보려고 한다. 대상논문은 CLIP의 오디오버전인 CLAP이며 CLIP이 이미지-텍스트 멀티모달 모델이라면, CLAP은 오디오-텍스트 멀티모달 모델이다. Text의 encoder를 CLIP의 Text encoder를 사용하였으며, 오디오 encoder부분이 CLIP과의 큰 차이이며 기본 로직은 CLIP과 동일하다고 볼 수 있다. Abstract 현재까지 Constrastive Learning(같은 분류의 데이터는 차원축소시 더 가까이두고 다른 분류의 데이터는 더 멀리 두는 학습법)은 멀티모델 representation learning에서 큰 성과를 보여주었는데, 이 논문은 contrastive 언어-오디어 사전학습의 파이프라인을 제시해서 오디어 데이터와 NLP를.. 2024. 1. 20.
728x90
반응형