Ask HN: 소비자용 하드웨어에서 사용할 수 있는 최고의 LLM은 뭔가요?
------------------------------
- 5060ti + 16GB VRAM 에서 기본 대화가 가능한 모델을 찾음. 가능하면 빠르고 거의 실시간으로 동작하면 좋겠음
# 답변 정리
- 다양한 *8B~14B, 30B 파라미터 모델* 이 16GB VRAM에서 효율적으로 동작하며, 대표적으로 *Qwen3, DeepSeek-R1, Mistral, Gemma3* 등이 추천됨
- *로컬 LLM 실행* 은 성능, 비용…
------------------------------
https://news.hada.io/topic?id=21221&utm_source=googlechat&utm_medium=bot&utm_campaign=1834

0

If you have a fediverse account, you can quote this note from your own instance. Search https://sns.lemondouble.com/notes/a8hzxfcj32 on your instance and quote it. (Note that quoting is not supported in Mastodon.)