因為Nvidia驅動每次都會莫名其妙不見,然後又要重裝套件,紀錄一下如何完整的移除驅動與套件。
最近在寫 Python 想說把一些 Model 匯聚成一個 Package 使用時,突然發現好像沒有一個像 Next.js 那種建立一個初始化 Templates 的工具,然後我就找到了這個。
某次因 Server 上需先掛 Proxy 後才能上網導致 Python 安裝套件過程中需要設定 Proxy 才能下載套件紀錄。
剛好有幸用到 8Core 80G GPU 的 A100 機台,但以為設定跟之前一樣卻要用 CUDA 跑 LLM 時遇到問題並紀錄解決方法。
此文紀錄使用 LLama3 + Langchain + llamacpp + Chroma 組合成一個簡單的 RAG !
這邊紀錄從 Ollama github 上的 Modefile 紀錄有哪些可以修改的參數。
此文章介紹如何從安裝 Nvidia 驅動到從 HuggingFace 下載的 LLM Model 使用 Ollama 啟動 LLM 並使用 OpenWeb ui 進行溝通的部署過程紀錄。