분류 전체보기
-
[이방인과 니체의 트월킹]그리고/일상 이야기 및 회고 2023. 8. 4. 22:47
https://youtu.be/Hdf35IzBpIU https://www.youtube.com/watch?v=odlvubNDlY0 너진똑과 지식은 날리지, 제일 좋아하는 유튜브 채널들이다. 오늘 나온 너진똑 영상 중 이방인을 보고, 예전에 본 니체의 트월킹 영상인 지식은 날리지의 영상이 생각나서 들은 생각들을 조금은 두서없이 정리해본다. 사실 우주에는 의미가 없고, 의도도 없다. 그럼에도 불구하고 우리는 끊임없이 시지프스의 신화의 시지프스처럼 계속해서 돌을 굴리고 산을 올라가면서 그 정상에 오르기 위해 노력한다. 정상에 오른다면, 순간은 즐겁지만, 다시 산은 나타나고, 또 다시 우리는 돌을 굴려야한다. 그러다가 가끔은 굴러 떨어져서 다치기도 하고, 혹은 굴리던 도중에 갑자기 굴러떨어져 죽거나, 곰을 만나..
-
[VAE: Auto Encoding Variational Bayes] 2014 ICLRPaper Review(논문이야기) 2023. 7. 31. 12:27
AutoEncoder와 차이 VAE와 AE는 그 구조가 비슷할 뿐이지, 목적은 정 반대라고 생각하면 된다. AE는 차원 축소에 그 목적이 있고, VAE는 Generative model에 더 가깝다고 생각하자. 목적 구조 Auto Encoder Dimension Reduction (Encoder학습에 집중) Encoder, latent vector(z), Decoder로 구성되어있음 Variational Auto Encoder Generatvie Model (Decoder에 목적이 있음) Auto Encoder와 동일하지만 Encoder에 모수추정 부분이 존재 Generative model VAE의 목적이라고 했던 Generative model의 원리를 간단히 설명하면 아래와 같다. Generative m..
-
Auto Encoder와 VAE 전 내용들 정리Paper Review(논문이야기) 2023. 7. 30. 20:30
VAE 논문을 읽던 도중에 Auto Endcoder 및 VAE 논문에 나오는 기타 개념들을 정리할 필요가 있어서 따로 정리해보려고 한다. 내용 참조는 Auto Encoder의 모든 것이라는 네이버 D2(이활석 발표자님) 강연, KAIST 스마트 설계 연구실 강남우 교수님의 딥러닝 강의를 기반으로 하였다. https://www.youtube.com/watch?v=o_peo6U7IRM https://www.youtube.com/watch?v=9mf4maQU7UY Revisit Deep Neural Networks DNN에 관한 개념적 설명보다는 DNN에서 사용되는 손실함수에 관한 Assumtion을 짚고 넘어간 부분 전통적인 머신러닝의 단계는 다음과 같다. 1. Collect training data: x,..
-
Likelihood(우도, 가능도)와 MLE(Maximum Likelihood Estimaton)ML&DL 이야기/ML 2023. 7. 26. 17:51
Likelihood(우도, 가능도) 데이터가 만일 위의 그림처럼 1,4,5,6,9가 나왔을 때 분포는 주황색으로 추정하는 것이 옳을까?, 아니면 파란색으로 추정하는 것이 좋을까? 우도란 이런 정도를 나타내는 것으로, 정리하면 "데이터가 해당 분포로 부터 나왔을 가능성(liklihood)" 확률은 모수가 정해진 상태에서 특정 data가 관측될 확률이고(말이 이상하지만..!), Likelihood는 Data가 관측된 상태에서 특정 확률분포에 대한 "모수"를 추정할 수 있는 믿음의 정도..?이다. 즉, 특정 모수 하의 x가 나올 확률은 x에 관한 모수의 가능도와 같다! 우리가 가지고 있는 데이터는 MLE(최대 우도 법) 최대우도법은 모수를 추정하는 방법으로, 데이터로부터 모수의 값을 추정할 때 사용하는 방법니..
-
[ML] L1함수와 L2함수 입장에서의 Loss FuntionML&DL 이야기/ML 2023. 7. 25. 17:48
파이토치는 다양한 손실함수들을 제공하는데, 이는 흔히 말하는 cost function, loss function, objective function 등의 이름으로 사용된다. 이런 손실함수들은 모델의 predict 값과 target 값의 차이를 측정하여 모델의 학습을 도와준다. Loss function의 2가지 가정 DNN에서 Loss Function을 사용할 때 아래의 2가지 가정에 적합해야 한다. 1) Train data에서의 Loss 총합은 개별 데이터 Loss의 합과 같아야 한다. $$ L(\theta_{k}, D) = \sum_{i}L(\theta_{k} ,D_{i}) $$ 2) DNN 출력 값으로 Loss를 계산한다. (중간 단계에서의 값으로는 계산하지 않음.) $$ \bigtriangledow..
-
[Martrix Factorization: Netfilx] 리뷰(IEEE 2009)Paper Review(논문이야기) 2023. 7. 24. 21:46
Introduction Modern Consumer are inudated with Choices(현대 소비자들은 선택에 매몰되어있다) Matching consumers with the most appropriate products is key to enhancing user satisfaction and loyality. (소비자를 매칭하는 문제는 소비자 만족과 충성도에 매우 주요한 구성요소 중 하나이다) Customers have proven willing to indicate their level of satisfaction with particular movies, so a huge volume of data is available about which movies appeal to which c..
-
[스티브 잡스_월터 아이작슨 저] 위대한 집착과 혁신그리고/독서 및 기타 이야기 2023. 3. 6. 23:01
드디어 며칠 전에 꽤 오래 전 생일 선물로 받은 스티브잡스 책을 다 읽었습니다(이제 부터 블로그 글은 이런 문체로 작성해보도록 하겠습니다). 이 책을 북카페에서 읽기도 하고, 도서관에서, 때로는 집에서 읽다보니 어느새 책을 다 읽었었습니다. 사실 이 책에는 너무나 많은 인물들이 나오기에 몇몇 인물, 팀 쿡, 조나단 아이브, 워즈니악 등 몇몇 인물의 이름을 제외하고는 기억이 나지 않지만 그들과의 일화와 잡스의 일생을 조금 더 날것으로 볼 수 있던 기회였습니다. 현재 저는 맥북도, 아이폰도 쓰고 있지 않고, 왜 사람들이 그렇게 애플 제품에 열광하는지 알 수 없었습니다. 심지어 학생 때 쓴 보고서에서는 애플에 관한 부정적인 내용을 작성하기도 했습니다. 하지만, 이 책을 읽은 지금 와서 최소한 애플의 제품에 담..
-
TIL 파이썬으로 조합과 순열 구하기개발 이야기/TIL 2023. 2. 1. 20:15
브루트 포스 문제를 풀던 도중 리스트에서 조합을 만들어야하는 문제들이 많아서 작성하게 되었다. 파이썬에서 import를 하면 바로 구현 가능하지만 함수를 직접 구현하는 것이 의미가 있을 거 같아 글을 작성하였다! 방법 1 itertools 라이브러리 이용 조합 from itertools import combinations arr = [0, 1, 2, 3, 4, 5] print(list(combinations(arr, 3))) 순열 from itertools import permutations arr = [0, 1, 2, 3, 4, 5] print(list(permutations(arr, 3))) 방법 2 재귀를 이용한 방법 조합 def combinations(lst, r): result = [] if r..