Paper Review(논문이야기)
-
[DFL] Decision-Focused Learning: Through the Lens of Learning to Rank( ICML 2022, Mandi et al.)Paper Review(논문이야기) 2024. 7. 17. 16:30
Decision Focused learning 문제를 해결하기 위해 다양한 접근법이 도출되는 것 같다. 대다수 accpet된 논문들의 경우 loss function이나 방법론을 정말 획기적..? 혹은 다른 필드에서 쓰이는 방법들을 잘 변형해서 적용하는데, 이정돈 해야 탑티어 논문인가...? 싶기도 하다. 이번 논문은 LTR에서 사용되던 방법을 이용해서 DFL문제를 풀겠다는 요지의 논문이다. 간단히 요약하면 1. Feasible solution들의 집합 v를 S라는 부분집합을 통해 대체한다(S는 기존의 F.S와 확률적으로 추가된다) - 선행논문 중 하나인 Mumba et.al 방법론 2. objective function을 통해 S를 정렬하고, 이를 실제값을 이용한 정렬된 S와 비교해 ranking los..
-
[Journal of Protfolio management]The Gerber Statistic: A RobustCo-Movement Measure for PortfolioOptimization(Sander Gerber et al.)Paper Review(논문이야기) 2024. 7. 10. 18:04
Harry M. Markowitz, 즉, 그 마코위츠 포트폴리오의 그분이 저자로 함께 작성한 자료이다(엄밀히 말하 논문..?은 아닌거 같다)글의 요지는 기존의 공분산 행렬 추정을 더 robust한 방법으로 변경해야한다..!이며 즉, 실제 시장에는 noise가 많이 껴져있는 상태이기에 기존 방법으로 공분산 추정이 너무 오염된 상태라는 것 같다.이를 위해 Gerber statisitc을 도입하는데(본 논문의 주저자의 이름) 자세한 건 아래에 설명한다. Introduction & Problem포트폴리오 구성(Markowitz 1952, 1059)은 자산 수익률 간의 공분산 행렬에 크게 의존하며, 종종 smaple covariance 자체가 실제 공분산 행렬의 추정치로 이용된다(Jobson and Korkie..
-
[Quantative Finance 2020]Index tracking through deep latent representation learning(Kim&Kim)Paper Review(논문이야기) 2024. 7. 5. 14:56
https://doi.org/10.1080/14697688.2019.1683599 본 논문에서는 Index tracking을 위해 Stack AutoEncoder를 이용하여 벤치마크지수의 추즉오류를 최소화한다. S&P 500, FTSE 100 및 HSI index에 방법론을 적용한다. 인덱스 펀드를 만들거나 할 때 보통 인덱스를 구성하는 모든 종목을 가지고 구성하게 되면, rebalancing 시 큰 Transaction cost나 complexity 우려가 있다. 그렇기에 종목을 구성하는 일부 종목을 가지고 가중치를 조절하여 해당 index를 잘 tracking 하는 portfolio를 만드는 것이 Index Tracking이 목표이다.기존에는 주로 optimization approach를 중심으로 연..
-
[DSL]TaskMet: Task-Driven Metric Learning for Model Learning(NeuIPS 2023) -1Paper Review(논문이야기) 2024. 7. 4. 11:27
https://arxiv.org/abs/2312.05250 TaskMet: Task-Driven Metric Learning for Model LearningDeep learning models are often deployed in downstream tasks that the training procedure may not be aware of. For example, models solely trained to achieve accurate predictions may struggle to perform well on downstream tasks because seemingly small predictarxiv.org 이전 DSL 개론(?) 리뷰에서 정리한바와 같이 Predict-optimize ..
-
[Time-series] A Time Series Is Worth 64 Words: Long-Term Forecasting With Transformers (ICLR 2023, PatchTST)Paper Review(논문이야기) 2024. 4. 25. 09:18
https://arxiv.org/abs/2211.14730 A Time Series is Worth 64 Words: Long-term Forecasting with TransformersWe propose an efficient design of Transformer-based models for multivariate time series forecasting and self-supervised representation learning. It is based on two key components: (i) segmentation of time series into subseries-level patches which are servearxiv.org논문코드: https://github.com/yuq..
-
[Time-series] Are Transformers Effective for Time Series Forecasting? (AAAI 2023, Ailing Zeng et al.)Paper Review(논문이야기) 2024. 3. 26. 15:36
https://arxiv.org/abs/2205.13504 Are Transformers Effective for Time Series Forecasting? Recently, there has been a surge of Transformer-based solutions for the long-term time series forecasting (LTSF) task. Despite the growing performance over the past few years, we question the validity of this line of research in this work. Specifically, Tr arxiv.org 논문코드: https://github.com/cure-lab/LTSF-Lin..
-
[NLP&Finance] Analyzing Stock Market Movements Using Twitter Sentiment AnalysisPaper Review(논문이야기) 2024. 3. 16. 12:39
https://dl.acm.org/doi/pdf/10.5555/2456719.2456923 오랜만에 arvix에 없는 논문 리뷰다. 큰 흐름만 보고 상세한 내용들은 향후에 필요하면 추가할 예정이다. 순서 부분에서는 편의를 위해 변경이 있었다. BackGround Regression model & R-square Score linear regression is a statistical model which estimates the linear relationship between a scalar response and one or more explanatory variables(출처 wiki) 회귀분석의 경우 특정 변수와 설명하고자 하는 변수(종속 변수나 y)의 관계를 알아내기 위한 식으로 보통 잔차를 최..
-
[AI 논문 다반사] AI 주요 학회지 및 논문 찾아보기Paper Review(논문이야기) 2024. 3. 11. 13:57
최근 ICPBL 캡스톤 수업을 들으며 딥러닝 분야의 2~3개년치 논문들을 읽고 리뷰할 일이 필요해서 주요 학회지에서 논문을찾아보는 법에 관해 간단히 정리하게 되었다. 주요학회 구분 딥러닝의 주요학회지는 다음과 같고, 대략 아래의 구분을 따라간다. (ML/DL 전반) NeurIPS, ICML, ICLR, AAAI, IJCAI (NLP) ACL, EMNLP (Computer Vision) CVPR, ICCV, ECCV (Recommender System) RecSys,SIGIR 각 학회에서 발표된 논문들은 해당 학회 이름으로 검색하면 사이트를 통해 확인 가능하다. 아래는 Nerips의 사이트이다. https://blog.neurips.cc/2023/12/11/announcing-the-neurips-2023..