충격적인 연구 결과입니다.
과학자들이 대형 언어 모델이 인간이 온라인에서 자극적인 콘텐츠를 과도하게 소비할 때처럼 스스로 ‘뇌가 썩는(brain rot)’ 현상을 겪는다는 사실을 증명했습니다.
연구진은 몇 달간 "짧고 자극적인 트위터 글"만 모델에 학습시킨 결과, 사고 능력은 23% 하락했고, 긴 맥락 기억력은 30% 감소했으며, 성격 테스트에서는 자기애 및 반사회성 지표가 급등했습니다.
더 문제는, 고품질 데이터로 다시 학습시켜도 손상이 완전히 복구되지 않았다는 점입니다. 내부 표현 구조가 영구적으로 변질된 상태로 남았다는 분석입니다.
질 낮은 데이터는 단순히 결과만 나빠지는 게 아니라, 모델 자체의 인지 구조까지 뒤틀릴 수 있다는 뜻입니다.
AI의 '둠스크롤링' 현상이 이미 벌어지고 있습니다.
If you have a fediverse account, you can quote this note from your own instance. Search https://threads.net/ap/users/17841400252984545/post/18091334407887611/ on your instance and quote it. (Note that quoting is not supported in Mastodon.)
모델은 새로 학습시키거나 롤백하면 되는데 이미 트위터(+SNS)로 1n 년 이상 썩어버린 내 뇌는 어떡하지😂
