ローカルLLM試してみようとおもってollamaをMacBook Pro (M1 Max, 32GB)に入れてみた。qwen3.5:9bとgpt-oss:20bを動かしてみたがどっちも問題なく動く。てかgpt-oss:20bのほうがメモリ食わないのなんで?
それにしてもローカルLLMについて調べようとWeb検索するとノイズがひどい。
あきらかにLLMでまとめてろくに手をいれてない記事が大量にヒットするのう
ローカルLLM試してみようとおもってollamaをMacBook Pro (M1 Max, 32GB)に入れてみた。qwen3.5:9bとgpt-oss:20bを動かしてみたがどっちも問題なく動く。てかgpt-oss:20bのほうがメモリ食わないのなんで?
それにしてもローカルLLMについて調べようとWeb検索するとノイズがひどい。
あきらかにLLMでまとめてろくに手をいれてない記事が大量にヒットするのう
If you have a fediverse account, you can quote this note from your own instance. Search https://sandbox.skoji.jp/users/skoji/statuses/116220606328350028 on your instance and quote it. (Note that quoting is not supported in Mastodon.)