Ollama
官方网站 https://ollama.ai
开源项目,用于运行、创建和共享大型语言模型(LLMs)。
连接 Ollama 模型
- 从链接下载并安装 Ollama: ollama.ai。
通过控制台下载模型
从终端下载模型,例如,运行命令
ollama run deepseek-r1
。通过运行命令
ollama pull MODEL
使用模型,例如:ollama pull deepseek-r1
。请等待加载完成至 100%。
如何使用 Ollama
- 在 VSCode CodeGPT 扩展中,更改聊天中的模型。
- 选择
Local LLMs
并选择Ollama
作为Provider
。 - 直接使用可用的模型。
- 粘贴运行模型的服务器链接。对于本地服务器:
http://localhost:11434
。 - 点击选项外部并开始聊天。
移除或编辑密钥
要移除端口,请点击 Change connection settings
按钮。
可用的自动补全模型:
- codestral:latest
- qwen2.5-coder:7b
- deepseek-coder:base
- qwen2.5-coder:1.5b
- codegemma:code
- codellama:code
API 错误
如果您遇到 API 错误,请检查以下链接:Ollama 文档
Ollama 错误
如果 Ollama 模型在聊天中没有响应,请考虑通过关闭然后重新打开来在本地重新启动它。此操作应能解决问题。
如果 Ollama 正在运行但没有响应,请手动从环境变量中移除 'Ollama_Host' 并让其恢复到默认设置。