목록전체 글 (85)
working_helen
Lecture : Machine Learning Date : week 7, 2024/04/18 Topic : Feature Selection 1. Feature selection 2. Wrapper method 3. Filter method 4. Embedded method 1. Feature selection - 모델 학습에 불필요하고 관계없는 feautre는 제거하고 중요한 feature만을 사용하여 학습시키는 것 - 기존 데이터에서 최적의 모델의 성능을 보여주는 일부 feature subset을 찾아내 학습시키는 것 - 모델 성능을 높일 수 있을 뿐만 아니라 학습에 필요한 메모리와 시간을 줄일 수 있다는 점에서 중요함 - 변수 선택 기법 Wrappers method : 모델이 가장 좋은 성능을 보이..
Lecture : Machine LearningDate : week 7, 2024/04/15Topic : Classifier combination 1. Classifier combination 2. Voting3. Bagging4. Boosting5. Stacking 1. Classifier combination 1) Ensemble learning (앙상블 학습)- 좋은 성능을 얻기 위해 다수의 모델을 종합적으로 사용하는 것 - 약한 예측모형 weak learner : 랜덤하게 예측하는 것보다 약간 좋은 예측력을 지닌 모형 - 여러개의 약한 기본모형(week base model, base learner)을 결합하여 강한 모형(strong learner)을 생성- strong leaner를 이..
Lecture : Media Computation Date : week 7, 2024/04/15 Topic : Arrays and Structured Data 1. JavaScript Array 2. JavaScript Array vs Python List 3. Array functions 1. JavaScript Array (MDN) 배열(Array)이란 일반적으로 "리스트같은 객체(list-like objects)"라고 기술됩니다. 배열은 보통 리스트에 저장된 다수의 값들을 포함하고 있는 하나의 객체입니다. JavaScript 배열은 크기를 조정이 가능하고, 다양한 데이터 형식을 혼합하여 저장할 수 있습니다. 1) array 생성 - 대괄호 [ ]를 이용하여 array 객체 생성 - 하나의 array..
Lecture : Machine LearningDate : week 4, 2024/03/21Topic : Decision Tree 1. Decision Tree 2. ID3 1) ID3 algorithm 2) Entropy와 Information Gain 3) ID3 Decision Tree 예제 4) Information Gain Ratio 1. Decision tree 의사결정 나무 - 특정 변수와 변수값을 기준으로 분기 > 데이터의 영역을 나누어 결과를 구분하는 모델 - 분기 이후 불순도(Impurity) 값이 가장 많이 감소하는(정확도가 증가하는) 방향으로 분기 - 불순도 지표 : 엔트로피(entropy), 지니계수(Gini Index) 등 Why? 왜 불순도가 감소하는 ..
Lecture : Machine Learning Date : week 3, 2024/03/14 Topic : Naive Bayes with continuous variable 1. Discretisation 1) Discretisation 이산화 2) 이산화의 장단점 3) 이산화 방법 2. Naive Bayes with continuous variable 1. Discretisation 1) Discretisation 이산화 continuous numeric attributes → discrete nominal attributes 연속형(수치형) 변수를 이산형(범주형) 변수로 변환하는 과정 - nominal valeu(interval)의 개수를 정하고, 그 개수만큼 boundaries를 선정한다. - 기..
Lecture : Machine LearningDate : week 3, 2024/03/11Topic : Instance-based Learning 1. Instance-based Learning 2. KNN 1) KNN 2) Tie breaking 방법 3) weighted KNN 4) 장단점 1. Instance-based Learning (사례 기반 학습) - 모델이 훈련 데이터를 기억한 상태에서, 새로운 input을 기존의 훈련 데이터와 비교해 가장 유사한 instance를 찾아내는 방식으로 일반화- labeled data가 필요한 지도학습의 한 방법으로, instance 간 유사도를 측정하기 위해 유사도 함수를 선택해야한다. - KNN을 비롯한 Nearest Neighbo..
Lecture : Machine Learning Date : week 2, 2024/03/07 Topic : Naive Bayes Model 1. Bayes' Rule 2. Naive Bayes Model 1) Model's Assumption 2) Model's Prediction 3) Smoothing 4) 장단점 3. Naive Bayes Model 예제 1. Bayes' Rule (베이즈 정리) : 주어진 데이터로부터 Posterior Probability를 계산하기 위한 식 X : Observation, 가지고 있는 instance 데이터 Θ : Hypothesis, 데이터로 예측하려는 값 P(X) : Marginal probability, likelihood of observing X in d..
Lecture : Machine Learning Date : week 2-1, 2024/03/04 Topic : Probability 1. types of Attribute 2. Probability Model 3. Entropy 1. types of Attribute Categorical (Normal) variable : discrete + no ordering, boolean type도 포함 Ordinal variable : discrete value + natural ordering, mathematical operations 적용 X Continous (Numerical) variable : real-valued, mathematical operations 적용 O - Oridinal 변수는 수..
Lecture : Machine Learning Date : week 1, 2024/02/29 Topic : Basic of ML 1. ML terminology 2. ML learning strategy 3. ML 문제 예제 1. ML terminology instances / exemplars / obserations : data case들 attributes / features : instance의 특징, x값 labels / concepts : learn의 대상, y값 (위키백과) 머신러닝은 데이터로부터 학습하고 보이지 않는 데이터를 일반화하여 명시적인 지시 없이 작업을 수행할 수 있는 통계 알고리즘의 개발 및 연구와 관련된 인공지능 연구 분야 - learning : concept = f(attr..
Lecture : Media Computation Date : week 4, 2024/03/18 Topic : Java Programming Essentials 1. JS 코드의 형태 2. JS에서 HTML element로 접근 3. JS 실습 예제 1. JS 코드의 형태 Simple Calculator input two number Add Multiply Power 방법 2 - 각 연산 함수에서 공통된 작업을 수행하는 calculator() 함수를 지정 - 어떤 연산을 수행할 것인지 mode 변수로 전달, mode 변수 값에 따라 다른 연산 수행 Simple Calculator input two number Add Multiply Power Reference https://8156217.tistory...