如何用Ollama安裝DeepSeek?
Ollama是一個用于本地部署和管理ai大模型的工具,DeepSeek是人工智能公司深度求索(DeepSeek)自主研發的大語言模型,下面將會一步步教你如何用 Ollama 安裝 DeepSeek。
第一步:安裝 Ollama(所有系統通用)
打開電腦的 命令行工具(Windows 用戶用 PowerShell,Mac/Linux 用 Terminal),然后:
1. 一鍵安裝 Ollama
Windows(右鍵以管理員身份運行 PowerShell):
winget install ollama
Mac/Linux:
curl -fsSL https://ollama.com/install.sh | sh
安裝完成后,輸入以下命令測試是否成功:
ollama --version
如果看到版本號(比如 ollama version 0.1.23),說明安裝成功!
第二步:安裝 DeepSeek 模型
情況 1:官方已支持(推薦!)
1. 打開 Ollama 的模型庫網站:https://ollama.ai/library
2. 在搜索框輸入 deepseek,看看是否有官方模型(比如 deepseek-7b-chat)
3. 如果有,直接運行以下命令(以 deepseek-7b-chat 為例):
ollama run deepseek-7b-chat
Ollama 會自動下載并啟動模型,完成后會顯示 >>> 輸入提示符,直接輸入問題即可!
情況 2:官方未支持(手動安裝)
如果官方沒有 DeepSeek 模型,需要手動操作:
1. 下載模型文件
訪問 Hugging Face 模型站:https://huggingface.co
搜索 deepseek-7b-chat-gguf,找一個量化版本(比如 Q4_K_M.gguf)
下載 .gguf 格式的模型文件(可能需要注冊 Hugging Face 賬號)
2. 創建配置文件
新建一個文本文件,命名為 Modelfile(無后綴),內容如下:
FROM /你的路徑/deepseek-7b-chat.Q4_K_M.gguf # 替換為你的實際文件路徑 PARAMETER temperature 0.7 # 控制回答隨機性(0=保守,1=創意)
3. 安裝自定義模型
在命令行中運行(注意文件路徑):
ollama create deepseek -f /你的路徑/Modelfile # 替換為 Modelfile 的實際路徑
4. 運行模型
ollama run deepseek
第三步:測試模型
安裝完成后,直接在命令行輸入問題測試:
>>> 用 Python 寫一個計算斐波那契數列的函數
等待片刻,模型就會生成代碼!
常見問題解決
1. 找不到模型文件
檢查文件路徑是否正確(建議把文件放在桌面,路徑類似 /Users/你的用戶名/Desktop/deepseek-7b-chat.Q4_K_M.gguf)
如果提示權限錯誤,嘗試在命令前加 sudo(Mac/Linux)
2. 運行速度慢
確保電腦至少有 8GB 內存
嘗試更小的量化版本(比如 Q2_K 或 Q3_K)
3. 模型不響應
檢查網絡是否正常(首次運行需要聯網)
重啟 Ollama 服務:
ollama serve # 保持這個窗口打開,另開一個窗口運行模型
小技巧
按 【Ctrl+C】 可中斷模型生成
輸入【 /bye】 退出模型
更多命令可通過 ollama --help 查看
通過以上步驟,你應該能夠順利安裝并運行Deepseek大模型。如果在安裝過程中遇到其他問題,可以參考Ollama的官方文檔或相關社區的支持。