LLM들은 얼마나 클까? (2025년 현황)
------------------------------
- *GPT-2, GPT-3, Llama, Mixtral, DeepSeek, Minimax, Hunyuan 등* 주요 대형 언어 모델의 *파라미터(매개변수) 규모와 구조* 에 대한 객관적 정보와 변천사 정리
- *GPT-2 (2019년)* 는 1.3억~16억 파라미터, *GPT-3 (2020년)* 는 1,750억(175B) 파라미터, *Llama-3.1(2024년)* 은 4050억(405B) 파라미터 등…
------------------------------
https://news.hada.io/topic?id=21796&utm_source=googlechat&utm_medium=bot&utm_campaign=1834

0

If you have a fediverse account, you can quote this note from your own instance. Search https://sns.lemondouble.com/notes/a9qc3ddvd0 on your instance and quote it. (Note that quoting is not supported in Mastodon.)