剛好有幸用到 8Core 80G GPU 的 A100 機台,但以為設定跟之前一樣卻要用 CUDA 跑 LLM 時遇到問題並紀錄解決方法。

剛好有幸用到 8Core 80G GPU 的 A100 機台,但以為設定跟之前一樣卻要用 CUDA 跑 LLM 時遇到問題並紀錄解決方法。
此文紀錄使用 LLama3 + Langchain + llamacpp + Chroma 組合成一個簡單的 RAG !
這邊紀錄從 Ollama github 上的 Modefile 紀錄有哪些可以修改的參數。
此文章介紹如何從安裝 Nvidia 驅動到從 HuggingFace 下載的 LLM Model 使用 Ollama 啟動 LLM 並使用 OpenWeb ui 進行溝通的部署過程紀錄。
本文介紹在 Ubuntu Server 22.04 上安裝 Docker 與 Kubernetes 並在 Container 上使用 GPU 的紀錄
本文紀錄 Windows Server 2019 上建立 S2D 的過程!!
本文是我在閱讀 Paul Graham 在2023年7月時在他自己 Blog 所寫下的 How to Do Great Work 這篇文章的個人想法!!