Ollama
📋 先决条件
- Windows、macOS 或 Linux 计算机
- 已在 VS Code 中安装 Caret
🚀 设置步骤
1. 安装 Ollama
-
访问 ollama.com
-
下载并安装适合您操作系统的版本
2. 选择并下载模型
-
在 ollama.com/search 浏览模型
-
选择模型并复制命令:
ollama run [模型名称]
-
打开您的终端并运行命令:
-
示例:
ollama run llama2
-
✨ 您的模型现在已准备好在 Caret 中使用!
3. 配置 Caret
-
打开 VS Code
-
点击 Caret 设置图标
-
选择"Ollama"作为 API 提供商
-
输入配置:
- 基本 URL:
http://localhost:11434/
(默认值,可以保持不变) - 从可用选项中选择模型
- 基本 URL:
⚠️ 重要注意事项
- 在与 Caret 一起使用之前启动 Ollama
- 保持 Ollama 在后台运行
- 首次模型下载可能需要几分钟
🔧 故障排除
如果 Caret 无法连接到 Ollama:
- 验证 Ollama 正在运行
- 检查基本 URL 是否正确
- 确保模型已下载
需要更多信息?阅读 Ollama 文档。