[by @anpigon] AutoRag 에서 Ollama 사용하기
원본 글 보러가기 : AutoRag 에서 Ollama 사용하기
작성자 : @anpigon 미리보기 (5 sentences)
참고: https://docs.auto-rag.com/local_model.html#add-more-llm-models
AutoRAG에 Ollama LLM 모델을 추가할 수 있습니다.
llama_index 에서 ollama 패키지를 설치합니다.
pip install llama_index.llms.ollama
---
[더 보기](/kr-dev/@anpigon/20240614t134540348z) 에서 확인 하실 수 있습니다.
---
[광고] 개발자 커뮤니티에 참여하세요 - 개발자 커뮤니티에 참여 하면 다양한 혜택을 받을 수 있습니다. [참여방법](/hive-137029/@kr-dev/x3v6n)