[by @anpigon] AutoRag 에서 Ollama 사용하기

in kr-dev 커뮤니티9 days ago

원본 글 보러가기 : AutoRag 에서 Ollama 사용하기

작성자 : @anpigon 미리보기 (5 sentences)


참고: https://docs.auto-rag.com/local_model.html#add-more-llm-models

AutoRAG에 Ollama LLM 모델을 추가할 수 있습니다.

llama_index 에서 ollama 패키지를 설치합니다.

pip install llama_index.llms.ollama

---

[더 보기](/kr-dev/@anpigon/20240614t134540348z) 에서 확인 하실 수 있습니다.

---

[광고] 개발자 커뮤니티에 참여하세요 - 개발자 커뮤니티에 참여 하면 다양한 혜택을 받을 수 있습니다. [참여방법](/hive-137029/@kr-dev/x3v6n)

Coin Marketplace

STEEM 0.19
TRX 0.12
JST 0.028
BTC 64060.29
ETH 3471.63
USDT 1.00
SBD 2.52