Ollamaを使ってローカルでLLMを動かすこと、
必要なマシンスペック、
GPUとかのハードウェアについての注意、
Railsでリアルタイムレスポンスする、など。
Running Self-Hosted Models with Ruby and Chris Hasinski
https://www.therubyaipodcast.com/2388930/episodes/18281351-running-self-hosted-models-with-ruby-and-chris-hasinski
