ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • Essay 5_2 - MiniLLM
    *STA9132/Essays 2025. 11. 17. 12:04

    Essay_5_2 (3).pdf
    0.21MB

     

     

    5번째 essay는 xLSTM으로 이미 썼는데, 발표시간에 한 분이 아주 흥미로운 논문을 발표하셔서 다시 썼다.

     

    왜냐하면, 내가 좋아하는 주제이기 때문이다.

     

    (RL로 formulate해서 문제를 푸는 방식도 좋아라 하고,

    optimization 시 divergence에 따른 model의 behavior에 대한 건 나름 공 들여서 공부했던 것이기도 하고,

    내가 좋아한 논문 시리즈인 DPG와도 매우 연관이 있기 때문이다. 

    (MiniLLM은 Knowledge Distillation이고, DPG는 LM Alignment이지만, 기본적인 문제 접근 방식은 매우 유사하다)

     

    아직 다 안썼다.

    Discussion Section 에 Wasserstein과 MMD에 대한 내용을 좀 더 공부하고 정리할 예정인데, 

    이미 너무 길어져서 앞 부분만 일단 올려야지.

     

    그간 쓴 Essay 중 가장 많은 시간이 소요되고 있다.

     

    그간 쓴 4개의 Essay 주제도 다 내가 좋아하는 것이라서 이것저것 더 공부하고, 정리하느라 시간이 걸렸는데,

    (특히 PFN은 무척 맘에 들고, BNN를 정리할 수 있고, 이후 발전이 궁금했는데, 좋은 논문을 보게 되어 즐거웠다.)

     

    요번 MiniLLM은 RL, divergence 관련하여 찾아보고 정리하느라 더 시간이 많이 걸리고 있다. 분량도 많아짐. -_-

     

    ※ 너무 분량이 많아서 원본 파일 첨부.



     

    '*STA9132 > Essays' 카테고리의 다른 글

    Wasserstein GAN  (0) 2025.11.18
    (final version) Essay 5_2 - MiniLLM  (0) 2025.11.18
    [MiniLLM] Knowledge Distillation of Large Language Models  (0) 2025.11.13
    Essay 5 - xLSTM  (0) 2025.11.07
    Long Range Arena  (0) 2025.11.03
Designed by Tistory.