-
여전히 풀리지 않은 숙제Causality/thought 2025. 12. 22. 23:16
https://letter-night.tistory.com/887
On-going thought(!)
2025.3.19. blog에 적은 글2025.5.3. blog에 적은 글이 궁금증에 대한 대답「Robust Agents Learn Causal World Models」 proves below statements.If the agent always performs optimally under a very broad class of changes to the environment "Dist
letter-night.tistory.com
그렇다면.. Agent가, 혹은 Foundation model이 Bayesian Structural Learning을 한다면, data generating process를 이해하고, 어떤 현상에 대한 인과관계를 규명하거나, causal question에 대답을 하거나, 복잡한 relationship에 대한 추론을 할 수 있을까?
예를 들어서, (내가 medical domain을 잘 몰라서 맞는 명칭인지는 모르겠지만) 어떤 병리학적인 현상이 복잡한 상호작용 기전으로 일어나거나, 어떤 drug / treatment에 대한 effect가 복잡한 관계 속에서 발현될 때,
그것에 대한 추론을 함과 동시에,
사실 이게 위험하잖아.
그러니까 이에 대한 confidence를 함께 제시할 수 있는 model이 될 수 있을까?
'Causality > thought' 카테고리의 다른 글
그렇다면 Mechanistic Interpretability는 LLM이 causal reasoning을 할 수 있다는 증거 아닌감? (0) 2026.01.12 복잡한 DAG-structure로 in-context learning 하면..? (0) 2026.01.06 예상대로 흥미진진한데 (0) 2025.10.29 이건 좀 별개인데 (0) 2025.10.28 눈이 확 트이네 (0) 2025.10.28