분류 전체보기
-
[LgAimers] Casual Inference for Special Cases(다양한 경우에 대한 Causal Inference 적용방법)전공&대외활동 이야기/2024 LG AIMERS 4기 활동 2024. 1. 27. 18:29
지금가지 배운 인과추론에 관한 개념들, 특히 Do calculus와 베이지안 정리를 기본으로하여 아래의 다양한 상황에 대해서 예시들을 통해 대응해보자. Genralized Identifiability(여러 Case에서 do Calculus 적용) Example1: Cholestrol level & Heart Attack 위의 상황의 DAG가 주어져있다고 해보자. 우리가 궁금한 것은 Q, 즉, 콜레스트롤 level이 심장에 주는 영향을 확인해보려고 한다. What we want to Know: Q = P(y|do(x)) 하지만 기존 문제와 다르게 교란변수 Z(diet)와의 bi directed edge가 있어서 backdoor 방법을 사용할 없다. 하지만 우리는 Z, diet에 대한 실험으로 X,Y의 변화..
-
[LGAimers] Calculating Causal Effect(인과추론 계산법) & BackDoor criterion전공&대외활동 이야기/2024 LG AIMERS 4기 활동 2024. 1. 26. 16:32
Causal Effect Causal Effect를 계산하기 전에 그 정의부터 알아보고 가자. 저번 글에서 정리한 do operator를 이용해 정리된 원인 X->Y의 인과관계는 P(y|do(x))라고 표현하고, 이를 더 줄여써서 $P_x(y)$라고 한다. 이는 X에서 Y의 확률분포를 의미한다. Computing Causal Effects 계산하고자 하는 P(y|do(x))를 위해 관측데이터와 Causal Diagram이 존재할 때, 인과추론 알고리즘을 통해 이를 계산한다. 이 때 값을 특정할 수 있을 때만 우리가 값을 구할 수 있다(다른 방법론으로, 모델로 graph를 분석했을 때 다른 값이 나오면 특정할 수 없다, 인과효과가 여러 개이다) 위의 예시를 보자. 우선 Z는 교란변수이고, W는 mediat..
-
[LGAimers] 인과추론에 관한 개념정리전공&대외활동 이야기/2024 LG AIMERS 4기 활동 2024. 1. 25. 14:39
본 강의는 LGAimers Module 5 인과추론 강의 중 서울대학교 이상학 교수님의 강의 내용을 정리한 것입니다 추가 첨부자료로 GSTIM의 테크트랜드 자료를 사용하였습니다(https://www.gsitm.com/pr/techblogdetail?prTechBlogSeqId=5&langCd=KR) GS ITM AI Lab 정용우님 작성 인과성을 알아야하는 이유는 무엇일까? 까마귀가 날자 배가 떨어지는 현상을 관측했다고 해보자. 그럼 우리는 이를 보고 "까마귀가 나는 것과 배가 떨어지는 것은 관련이 있다"라고 말을 할 수도 있을 것이다. 이를 Correlation, 상관성이라고 한다. 하지만 이것이 까마귀가 난 현상이 배가 떨어지는 현상의 원인이라는 것을 보장하지는 않을 것이다.(물론 이 예시의 경우 상..
-
[LGAimers] Ensemble전공&대외활동 이야기/2024 LG AIMERS 4기 활동 2024. 1. 25. 10:05
본 내용은 Module 4 이화여자대학교 강제원 교수님의 강의 내용을 요약한 것입니다 Ensemble(앙상블) Supervised Learning Task에서 성능을 향상시킬 수 있는 방법으로 다양한 다른 모델을 모아서 예측에 사용하는 방법이다. 위키피디아에 따르면 다음과 같다. Ensemble methods use multiple learning algorithms to obtain better predictive performance than could be obtained from any of the constituent learning algorithms alone. - 앙상블 기법은 여러 학습 알고리즘을 사용하여 구성 학습 알고리즘만으로 얻을 수있는 것보다 더 나은 예측 성능을 얻습니다 - 각 ..
-
[LGAimers] Support Vector Machine(SVM)전공&대외활동 이야기/2024 LG AIMERS 4기 활동 2024. 1. 24. 22:09
본 내용은 Module 4 이화여자대학교 강제원 교수님의 강의 내용을 요약한 것입니다 Robustness와 SVM 기존의 Linear classification을 보면, 2 Class를 구분하는 hyperplane은 다양하게 나올 수 있다. 위의 그림을 보면, w1, w2, w3가 모두 가능하다. 하지만, robust 관점에서 3 solution 중 w2가 가장 좋음은 자명하다. 우측그림을 보면 w3의 경우 new data에 대해 잘못 판정하는 예시를 보여준다. Support Vector Machine(SVM) SVM은 Robustness 관점에서 가장 좋은 Hyperplane을 선택하기 위해 Margine과 Support Vector라는 개념을 도입한다. 간단히 예기하면 SVM의 목적은 Margin을 ..
-
[LG AiMERS] Linear Classification전공&대외활동 이야기/2024 LG AIMERS 4기 활동 2024. 1. 24. 17:01
Part module 4내용은 기존 pytorch 내용과 일부 내용은 pytroch ML 부분에 보강하여 작성하였습니다. Classificaiton에 관해 기존에 정리한바 있지만 전체적인 흐름을 따라가면서 다시 정리하였습니다. 본 내용은 Module 4 이화여자대학교 강제원 교수님의 강의 내용을 요약한 것입니다 Linear Classfication Make a Hyperplane(which is linear) to classify Discrete output(classification). 우선 Classification 문제이기에 Discrete한 output을 가지면서 동시에 그 수식은 linear한 수식을 가지는 것이 Linear Classification문제이다. 따라서 수식은 위의 그림에서의 2번..
-
[LG AiMERS] Convex Optimization전공&대외활동 이야기/2024 LG AIMERS 4기 활동 2024. 1. 23. 15:21
이번 내용은 LG Aimers module 2 내용(KAIST 신진우 교수) 및 1학기 본전공 수업 과정인 Operation Research 1(경영과학과 운영연구1) 수업에서의 내용들을 추가하여 작성하였습니다. 위의 form은 standard form of Optimization problem이다. 이때 f(x), g(x), h(x) 중 하나라도 비선형이면 NLP 문제라고 한다. 이 때 subject to ~에 해당하는 식, 즉, 제약조건의 유무에 따라 Unconstrained Optimization 문제인지, 아니면 Constrained Optimization 문제인지 결정된다. 보통의 Linear problem과 다르게 식에 형태에 따라서 optimal point가 local optimal일 수도 ..
-
[LG AiMERS] Machine Learning 개론전공&대외활동 이야기/2024 LG AIMERS 4기 활동 2024. 1. 20. 14:42
본 내용은 LG Aimers Module 3, 서울대학교 김건희 교수님의 강의 내용에 기반하고 있습니다 Machine Learning이란? Machine Learning is a computer programing is said to learn form experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E - by T.Michell(1997) 위의 정의와 같이 현재도 인공지능 알고리즘을 평가하고 설계하고 있다. T: classification, regression, detectio..