-
Essay 5_2 - MiniLLM*STA9132/Essays 2025. 11. 17. 12:04
5번째 essay는 xLSTM으로 이미 썼는데, 발표시간에 한 분이 아주 흥미로운 논문을 발표하셔서 다시 썼다.
왜냐하면, 내가 좋아하는 주제이기 때문이다.
(RL로 formulate해서 문제를 푸는 방식도 좋아라 하고,
optimization 시 divergence에 따른 model의 behavior에 대한 건 나름 공 들여서 공부했던 것이기도 하고,
내가 좋아한 논문 시리즈인 DPG와도 매우 연관이 있기 때문이다.
(MiniLLM은 Knowledge Distillation이고, DPG는 LM Alignment이지만, 기본적인 문제 접근 방식은 매우 유사하다)
아직 다 안썼다.
Discussion Section 에 Wasserstein과 MMD에 대한 내용을 좀 더 공부하고 정리할 예정인데,
이미 너무 길어져서 앞 부분만 일단 올려야지.
그간 쓴 Essay 중 가장 많은 시간이 소요되고 있다.
그간 쓴 4개의 Essay 주제도 다 내가 좋아하는 것이라서 이것저것 더 공부하고, 정리하느라 시간이 걸렸는데,
(특히 PFN은 무척 맘에 들고, BNN를 정리할 수 있고, 이후 발전이 궁금했는데, 좋은 논문을 보게 되어 즐거웠다.)
요번 MiniLLM은 RL, divergence 관련하여 찾아보고 정리하느라 더 시간이 많이 걸리고 있다. 분량도 많아짐. -_-
※ 너무 분량이 많아서 원본 파일 첨부.




















'*STA9132 > Essays' 카테고리의 다른 글
Wasserstein GAN (0) 2025.11.18 (final version) Essay 5_2 - MiniLLM (0) 2025.11.18 [MiniLLM] Knowledge Distillation of Large Language Models (0) 2025.11.13 Essay 5 - xLSTM (0) 2025.11.07 Long Range Arena (0) 2025.11.03