본문 바로가기

전체 글

GPT4Rec 리뷰 Intro 1. NLP 기반 모델들이 user-item 상호작용 sequences를 모델링하여 개인화된 추천 시스템에 사용됨 2. 한계 : NLP기반 모델들은 item을 단순히 ID로만 대함 (semantic 정보사용 x), discriminative modelling을 사용한다는 점에서 한계가 있음 * discriminative / generative model(https://ratsgo.github.io/generative%20model/2017/12/17/compare/) - incapable of fully leveraging the content info of items and the language modeling ability of NLP models - unable to accomodate.. 더보기
Rethinking Personalized Ranking at Pinterest: An End-to-EndApproach 리뷰 Information systems -> Personalization; Content ranking 제가 생각하기에 PInterest를 한 번 살펴보면 level3 프로젝트 때 도움이 될 것 같아서 읽어봤습니다. 개인화 추천을 아주 잘하는 PInterest! Introduction 1, Pinterest Surfaces : Homefeed, Related Pins and Search 2. generate personalized recommendations based on user's interaction User-Pin Interaction (Action) - 핀 저장 saving Pins to board (repin) - 핀의 있는 링크 누르기 clicking through to the underlyi.. 더보기
10/18,19 공부 https://www.kdnuggets.com/2016/04/deep-learning-vs-svm-random-forest.html When Does Deep Learning Work Better Than SVMs or Random Forests®? - KDnuggets Some advice on when a deep neural network may or may not outperform Support Vector Machines or Random Forests. www.kdnuggets.com Random Forests vs. SVMs - 둘 다 non-parametric model, the complexity grows as the number of training samples increases .. 더보기
Of Spiky SVDs and Music Recommendation 리뷰 1. Introduction SVD란? Singular vector decomposition, 특이값 분해 : 행렬 분해 𝑀ˆ = 𝑈 Σ𝑉* 으로 분해한 뒤 M으로 ∥𝑀 − 𝑀ˆ ∥^2 작아지도록 근사함 truncated SVD란 ? ∑의 대각 원소 중 상위 t개만 추출 추천시스템에서 유저-아이템 매트릭스를 truncated SVD로 저차원 분해하여 유저, 아이템 임베딩을 얻기 위해 사용 * M^의 rank는 f , f 더보기
대략 01/12의 공부 일지 + 10주차 회고 https://towardsdatascience.com/hyperparameter-optimization-in-python-part-2-hyperopt-5f661db91324 드디어 내가 손튜닝을 벗어나는 날이 오다니...감동스럽다.. Hyperparameter Optimization in Python. Part 2: Hyperopt. In this blog series, I am comparing python HPO libraries. Before reading this post, I would highly advise that you read Part 0… towardsdatascience.com https://en.wikipedia.org/wiki/Kernel_density_estimation Ke.. 더보기
Feature Enigneering 공부 Feature Engineering - Wikipedia Discover Feature Engineering, How to Engineer Features and How to Get Good at It - MachineLeariningMastery Feature Engineering Using Pandas for Beginners - Analytics Vidhya GroupBy in Pandas: Your Guide to Summarizing and Aggregating Data in Python - Analytics Vidhya feature templates - Stanford cs221 https://medium.com/@rishabhrjain/linear-regrsesion-binning-and-.. 더보기
GLORY 리뷰 1. PROBLEM 뉴스 추천할 때, nlp 기술을 활용하여 semantic 정보를 추출해서 content-based recommendation에 활용해 왔음. NLP와 ML로 user의 과거 읽었던 뉴스 기사(content)를 분석하여 user의 interest representations를 추출하여 candidate news articles와의 match를 확인함 최근에는 text data를 다루는 능력이 높아졌고(transformer attention), user의 reading history를 sequence로 인식하여 deep learning을 사용하는 방법이 빠르게 발전되고 있음. 또한, user preference를 모델링하는 방법으로 graph-based 방법이 제안됨. 그러나, 이전까지의.. 더보기
9주차 회고 https://moon-walker.medium.com/transformer%EB%8A%94-inductive-bias%EC%9D%B4-%EB%B6%80%EC%A1%B1%ED%95%98%EB%8B%A4%EB%9D%BC%EB%8A%94-%EC%9D%98%EB%AF%B8%EB%8A%94-%EB%AC%B4%EC%97%87%EC%9D%BC%EA%B9%8C-4f6005d32558 Transformer는 Inductive Bias이 부족하다라는 의미는 무엇일까? Inductive Bias가 딥러닝 알고리즘에 미치는 영향은 무엇일까……? moon-walker.medium.com 위의 글에서 중요한 부분 Q: What is inductive bias in machine learning? Why is it necessa.. 더보기