목록2023/08 (26)
working_helen
논문명 : Neural Collaborative Filtering 저자명 : Xiangnan He, Lizi Liao, Hanwang Zhang, Liqiang Nie, Xia Hu, Tat-Seng Chua 논문 링크 : https://arxiv.org/abs/1708.05031 본 논문에서는 recommandation problem에서 딥러닝 기반 모델의 활용 가능성을 보이고자 한다. 특히 현재 collaborative filtering에서 널리 사용되고 있는 Matrix Factorization 모델은 user-item 상호작용을 linear하게만 표현하기 때문에 implicit feedback에서의 상호작용을 잘 설명할 수 없음을 주장하며, 이에 대한 대안으로 deep neural networks..
논문명 : Matrix Factorization Techniques for Recommender Systems 저자명 : Yehuda Koren, Robert Bell and Chris Volinsky 파일 링크 : https://datajobs.com/data-science-repo/Recommender-Systems-[Netflix].pdf 본 논문에서는 Matrix Factorization(MF) 모델이 CF 방식에서 성능이 뛰어난 모델임을 보인다. MF의 원리와 기초적인 수식을 제시한 후 MF의 정확도를 높이기 위해 평점 이외에 다양한 정보를 MF 수식에 적용할 수 있는 방법에 대해 소개한다. ✏️ 논문 내용 요약 1. Collaborative filtering에서 MF은 높은 성능을 보이고 있다..
논문 리뷰를 바탕으로 Factorization model을 구현해보는 과정에서 학습한 loss function에 대해 정리해본다. 1. Loss function 1) loss fuction 손실 함수 2) 모델의 학습 3) loss function 종류 2. 회귀모델 loss function 1) 평균제곱오차 MSE 2) 평균제곱근오차 RMSE 3) 평균절대오차 MAE 3. 분류모델 loss function 1) 분류 문제의 종류 2) Activation Function 3) entropy 4) Cross entropy 5) Binary Cross entropy 6) Categorical Cross entropy 7) Sparse categorical cross entropy 1. Loss functio..
교육 프로그램명 : 혁신융합대학 프로그래머스 PCCP(Python) 대비 교육 교육 일시 : 2023.08.25 10:00~15:00 강사명 : 김태원 강사님 1. DFS 연습 문제 2. 그래프 1. DFS 연습 문제 연습 문제 : 줄다리기 - fight 정보 = 학생 index 쌍 (i, j) list → 2차원 배열 변환, 사이가 좋지 않은 관계 index를 1로 지정 - 마지막으로 넣은 학생 index p[-1]과 i가 fight 관계이면 해당 case는 cutting - 방문한 현재 노드 i를 방문 stack에 넣고, 현재 노드를 포함하는 DFS를 진행한 현재 노드 i를 포함하는 DFS가 끝나면 stack에서 i를 제거 p = []#학생 index를 저장하는 stack count = 0#가능한 순..
교육 프로그램명 : 혁신융합대학 프로그래머스 PCCP(Python) 대비 교육 교육 일시 : 2023.08.24 10:00~15:00 강사명 : 김태원 강사님 1. BFS 2. DFS 1. BFS - 큐 자료형을 이용해 구현 - 시작 노드에서 가까운 노드들부터 우선 방문하는 방식 => 최단거리 or 최소 횟수문제, 특정 지점에 도착하는 최소경로 or 최거리를 구하는 문제에서 주로 사용된다. - 연습 문제 : BFS로 이진트리 탐색 - while문 한번마다, Q 내 현재 level의 모든 노드에서, 가능한 다음 노드를 찾아 Q에 넣고, level을 1 증가한다. from collections import deque def BFS(): Q=deque() Q.append(1) # 1 level의 root 노드..
교육 프로그램명 : 혁신융합대학 프로그래머스 PCCP(Python) 대비 교육 교육 일시 : 2023.08.23 10:00~15:00 강사명 : 김태원 강사님 1. 정렬 함수 2. Stack 스택 구현 3. Queue 큐 구현 1. 정렬 함수 1) sort method - list나 array를 정렬하는 method - 새로운 list 객체를 리턴하지 않고 기존 list를 변화시킨다. list.sort()# 오름차순 list.sort(reverse = True)# 내림차순 - key를 지정한 정렬 : 정렬시 사용할 기준값 key를 지정하여 정렬한다. list = [(x1, y1), (x2, y2),,,] 형식일때 # x값을 기준으로 내림차순 정렬 list.sort(key = lambda v : -v[0]..
논문 리뷰 과정에서 접한 경사하강법에 대해 학습해본다. 1. 경사하강법 1) loss function 2) 경사하강법 3) 수식 표현 4) 경사하강법의 문제점 2. Epoch, Iteration, Batch 3. 배치 경사하강법 4. 확률적 경사 하강법 5. 미니배치 확률 경사 하강법 1. 경사하강법 1) loss function - loss function 손실 함수 : 모델의 파라미터 θ에 따른 예측값과 실제값 사이의 차이인 loss를 계산하는 함수 - loss function 값이 낮아질수록 예측값과 실제값 사이의 차이가 적으므로 더 좋은 모델 파라미터라고 할 수 있다. 즉 loss function 값을 최소화함으로써 최적의 모델 파라미터를 얻을 수 있다. 2) 경사하강법 Gradient Desce..
데이터 수집 단계에서 학습한 내용 중 네번째로 주소 데이터를 위도/경도 값으로 전환하는 방법에 대해 공부해본다. 1. Geocoding 지오코딩 2. 위경도 변환 코드 분석 1. Geocoding 지오코딩 - 주소와 관련된 텍스트 데이터 (주소, 도로명, 산 이름 등 고유명칭)를 위도/경도 좌표 정보로 변환하는 것 - 네이버, 구글, 다음 등 위도와 경도 관련 서비스를 해주는 다양한 geocoding 오픈 API 존재한다. - 본 프로젝트에서는 네이버 클라우드 플랫폼 지도 API(Geocoding OpenAPI)를 활용했다. NAVER CLOUD PLATFORM에 접속해 네이버 지도 Geocoding에 대한 Application 활용 등록으로 API 사용을 위한 ID와 Key 정보를 발급받는다. [네이버..
논문명 : Factorization Machines 저자명 : Steffen Rendle 팀명 : 시고르자브종 파일 본 논문에서는 Factorization Machines(FM) 모델에 대해 설명한 후, SVM(Support Vector Machines)과의 비교와 다른 factorization model로의 확대 가능성을 보임으로써 FM 모델의 장점을 보여주고자 한다. ✏️ 논문 내용 요약 1. FM은 SVM와 factorization model의 장점을 결합한 새로운 모델이다. 2. FM은 아래와 같은 장점이 있다. - sparse data에도 적용가능하다. - linear 방정식을 가지며, linear time 내에 연산이 가능하다. - general predictor이다. 3. FM은 sparse..
논문 리뷰 과정에서 접한 SVM 모델에 대해 학습해본다. 1. SVM Support Vector Machine 1) 개념 2) 결정 경계 3) margin 4) SVM의 종류 2. Linear hard margin SVM 1) 라그랑주 승수법 2) Primal form과 Dual form 3. Linear soft margin SVM 1) slack varibles와 C 2) Dual form 4. Kernel SVM (Non-Linear SVM) 1. SVM Support Vector Machine 1) 개념 : 패턴 인식, 분류, 그리고 회귀 분석 등에 사용되는 머신러닝 알고리즘 주어진 데이터에서 class를 나누는 기준선을 정의하고, 분류되지 않은 새로운 데이터가 어떤 class에 속할지 판단 📌 ..