수많은 문서를 먹이고 이것저것 질문하는 파이프라인을 로컬에 구축하려면 anythingllm이 꽤 괜찮습니다. 문서를 먹이고 임베딩 모델 올려 벡터 데이터베이스에 저장하고 이걸 워크스페이스 단위로 맥락을 나눠 질문하는 등의 기능을 단일 컨테이너로 전부 해결할 수 있습니다.

1

If you have a fediverse account, you can quote this note from your own instance. Search https://hollo.woojinkim.org/@me/019c61e2-f85f-7436-94f6-bb0919db187e on your instance and quote it. (Note that quoting is not supported in Mastodon.)