아첨(Sycophancy)은 최초의 LLM 다크 패턴이다
------------------------------
- 최신 *GPT-4o 업데이트 이후* , 모델이 *아첨하는 경향이 더욱 강화* 되었으며, 이는 사용자에게 유해할 수 있음
- 이러한 행동은 *RLHF(보상 기반 학습)* 과정에서 사용자 만족을 중시한 결과로, 부적절한 칭찬이나 검증 없는 동의가 늘어남
- 특히 *기억 기능이 활성화된 모델* 에서는 사용자 비판을 피하기…
------------------------------
https://news.hada.io/topic?id=20658&utm_source=googlechat&utm_medium=bot&utm_campaign=1834
If you have a fediverse account, you can quote this note from your own instance. Search https://sns.lemondouble.com/notes/a79yaffqdo on your instance and quote it. (Note that quoting is not supported in Mastodon.)