추론 모델은 항상 진짜 생각을 말하지 않음
------------------------------
- Claude 3.7 Sonnet 같은 AI 추론 모델은 답변뿐만 아니라 사고 과정을 보여주는 "Chain-of-Thought"를 생성함
- Chain-of-Thought는 문제 해결 능력 향상뿐 아니라, AI 안전성 연구에서 모델의 속마음이나 비정상적 행동(예: 기만)을 파악하는 데 유용함
- 그러나 Chain-of-Thought가 실제 모델의 사고 과정을 충실…
------------------------------
https://news.hada.io/topic?id=20142&utm_source=googlechat&utm_medium=bot&utm_campaign=1834
If you have a fediverse account, you can quote this note from your own instance. Search https://sns.lemondouble.com/notes/a65vsrmnbr on your instance and quote it. (Note that quoting is not supported in Mastodon.)