- OpenAI의 새로운 추론 모델 o3와 o4-mini는 이전 모델보다 더 많이 환각 현상 발생
- 내부 테스트에 따르면 o3는 PersonQA 질문의 33%에서 환각을 보이는데, 이는 이전 모델의 두 배이며, o4-mini는 48%에 달함
- OpenAI는 이유를 완전히 이해하지 못하고 있음
- 이 모델들은 코딩과 수학에서 더 나은 성능을 보이지만 전반적으로 더 많은 주장을 하여 더 많은 부정확성을 초래함
- 웹 검색 기능이 환각을 줄이는 데 도움이 될 수 있으며, 이는 지속적인 연구 과제
OpenAI's new reasoning AI models hallucinate more | TechCrunch
https://techcrunch.com/2025/04/18/openais-new-reasoning-ai-models-hallucinate-more/
If you have a fediverse account, you can quote this note from your own instance. Search https://threads.net/ap/users/17841401652520006/post/18265329967263709/ on your instance and quote it. (Note that quoting is not supported in Mastodon.)
