전체 글
-
총체적 난국Campus Life 2025. 1. 14. 23:29
논문 재정비해서 다시 투고해야하고, 실험하던 것들도 있지만,1월에 들어서는다 접어두고 복습만 하고 있다.아주 fundamental한 것부터 보고 있다. 뜬금없지만 지난 주에는 공업수학 (선형대수, 미분방정식, 다변수적분, 신호처리)을 훑었는데, Kreysizig 문제를 푸는 crazy한 짓은 학부 때 한 걸로 족하고 ㅎㅎ그냥 기본적인 개념 위주로 공부했다.집단지성에 기여하시는 훌륭한 분들이 계셔서.. 유튜브 & 블로그 보며 공부했다.(진심 넘나 감사..) 그리고,지난 한 해 동안 너무 엄청난 것들을 한꺼번에 배워서..하나씩 다시 살펴보고 있다. 오늘은 하루종일 VAE만 본 듯..다시 봐도 엄청나고, 아름답다.몸이 자꾸 아파서 큰일이다.보통 순 공부 시간이 8시간 정도 되는데,요 며칠은 너무 컨디션이 안..
-
RoPE 해결Campus Life 2025. 1. 11. 22:55
논문과 코드의 간극 논문에서 제시한 수식과..코드가.. 도저히 연결이 안되다가..드디어 해결!! 이해 완료!애매했던 부분들 다 해결했다. RoPE, Grouped Query Attention, KV cache, 내가 특히 취약했던 부분 - decoding part (inferencing) - Greedy decoding, Beam Search, Top_p. 다 해결! 그간 LlaMa, Gemma 코드 만들어 놓고도 방치했는데, 이제야 온전히 내꺼 같다. 이제야 내 LlaMa, Gemma가 생겼네. "이제서야..?" 라고 물으신다면..할 말 없습니다..남들보다 좀 느려요.. (좀 많이.. ㅜㅜ) (인생이 지각 인생입니다..) 저번에 TroL 논문 읽고 코드를 살펴보니, 저자가 phi-3를 기깔나게..
-
2024년 12월 31일Campus Life 2024. 12. 31. 02:15
여러모로 잊지 못할 해가 될 것 같다.정말 여러 모로.. 상상도 못했다. 이렇게 대학원에 진학하게 될줄이야. 학부 시절에는 ML 이런 거 몰랐다. 그냥 통계, 수학 과목만 열심히 듣고 졸업했다. 프로젝트는 한번도 해본 적이 없다. 프로젝트를 하는 수업들이 아니었다. 주구장창 시험 보는 과목들이었다. ㅎㅎ 딱히 과제도 뭐.. 회귀, 다변량은 과제가 있었던가. 공대 과목은 좀 있었던 것 같고. ML/DL 관련 수업을 난생 처음 들었다. 프로젝트도 난생 처음 해봤다.논문 리뷰 발표도 처음 해봤다. 논문도 처음 써봤다. 정말.. 무지랭이도 이런 무지랭이가 없을거다. 2024년은 아침에 눈 뜨면 책상에 앉고, 잠 들기 직전까지 책상에 있다가 잠드는 생활을 1년 내내 했다. 아.. 그러고 보니.. 공부하다가 ..
-
Desk rejection because of policy violationPaper Writing 1/Experiments 2024. 12. 23. 08:55
Paper submission must adhere to the double-blind review policy. Submissions must remove all details identifying the author(s) from the original manuscript, and the author(s) should refer to their prior work in the third person and include all relevant citations. 이거 어겼단다.. 그래서 제출한 거 다운로드 받아서 봤는데.. 내 이름 안지우고 냈어........................................
-
Aligning Language Models with Preferences through f-divergence MinimizationResearch/... 2024. 12. 23. 07:13
https://arxiv.org/pdf/2302.08215(Jun 2023 ICML 2023) 짜잔~ 종합선물세트 입니다~!f-divergence로 대동단결.옛다. 크리스마스 선물 받아랏~! 너무 당연한 이야기이지만, 목표를 어떻게 설정하느냐에 따라 인생은 완전히 달라진다.목적지 변경은 우리를 완전히 다른 방향으로 이끌기도 한다.objective function (loss function)에 따라서 model의 behavior가 달라지는 건 참 흥미진진하다.(좀 더 구체적으로는..- 어떠한 measure로 target distribution을 approximate할 것인가- metric에 따라 convergence하는 양상은 어떻게 달라지는가) 이 논문을 읽는데 왜케 행복하지? ㅜㅜ 이 논문을 읽기 위해..
-
[cdpg] Controlling Conditional Language Models without Catastrophic ForgettingResearch/... 2024. 12. 22. 08:49
https://arxiv.org/pdf/2112.00791(Jun 2022 ICML 2022)AbstractMachine learning is shifting towards general-purpose pretrained generative models, trained in a self-supervised manner on large amounts of data, which can then be applied to solve a large number of tasks. However, due to their generic training methodology, these models often fail to meet some of the downstream requirements (e.g., halluc..
-
(3/3) GAN, F-Divergence, IPMResearch/... 2024. 12. 22. 00:34
1. Example of Parallel Line Density2. Wasserstein Distance with GAN3. Kantarovich-Rubinstein Duality4. Wasserstein as Primal LP5. Wasserstein as Dual LP6. Property of Dual LP on Wasserstein Distance7. Lipschitz Continuity8. Dual Problem of Wasserstein Distance9. Kantorovich-Rubinstein Duality & Wasserstein GAN