xAI (Grok)
xAI 是 Grok 背后的公司,Grok 是一个以其对话能力和大型上下文窗口而闻名的大型语言模型。Grok 模型旨在提供有用、信息丰富和上下文相关的响应。
网站: https://x.ai/
获取 API 密钥
- 注册/登录: 前往 xAI 控制台。创建账户或登录。
- 导航到 API 密钥: 在您的仪表板中转到 API 密钥部分。
- 创建密钥: 点击创建新的 API 密钥。为您的密钥提供一个描述性名称(例如"Careti")。
- 复制密钥: 重要: 立即 复制 API 密钥。您将无法再次查看它。请安全存储。
支持的模型
Careti 支持以下 xAI Grok 模型:
Grok-3 模型
grok-3-beta(默认)- xAI 的 Grok-3 beta 模型,具有 131K 上下文窗口grok-3-fast-beta- xAI 的 Grok-3 fast beta 模型,具有 131K 上下文窗口grok-3-mini-beta- xAI 的 Grok-3 mini beta 模型,具有 131K 上下文窗口grok-3-mini-fast-beta- xAI 的 Grok-3 mini fast beta 模型,具有 131K 上下文窗口
Grok-2 模型
grok-2-latest- xAI 的 Grok-2 模型 - 最新版本,具有 131K 上下文窗口grok-2- xAI 的 Grok-2 模型,具有 131K 上下文窗口grok-2-1212- xAI 的 Grok-2 模型(版本 1212),具有 131K 上下文窗口
Grok Vision 模型
grok-2-vision-latest- xAI 的 Grok-2 Vision 模型 - 最新版本,支持图像和 32K 上下文窗口grok-2-vision- xAI 的 Grok-2 Vision 模型,支持图像和 32K 上下文窗口grok-2-vision-1212- xAI 的 Grok-2 Vision 模型(版本 1212),支持图像和 32K 上下文窗口grok-vision-beta- xAI 的 Grok Vision Beta 模型,支持图像和 8K 上下文窗口
旧版模型
grok-beta- xAI 的 Grok Beta 模型(旧版),具有 131K 上下文窗口
在 Careti 中配置
- 打开 Careti 设置: 点击 Careti 面板中的设置图标(⚙️)。
- 选择提供商: 从"API 提供商"下拉菜单中选择"xAI"。
- 输入 API 密钥: 将您的 xAI API 密钥粘贴到"xAI API Key"字段中。
- 选择模型: 从"模型"下拉菜单中选择您想要的 Grok 模型。
推理能力
Grok 3 Mini 模型具有专门的推理能力,允许它们在响应前"思考"- 特别适用于复杂的问题解决任务。
支持推理的模型
推理仅由以下模型支持:
grok-3-mini-betagrok-3-mini-fast-beta
Grok 3 模型 grok-3-beta 和 grok-3-fast-beta 不支持推理。
控制推理努力
使用支持推理的模型时,您可以使用 reasoning_effort 参数控制模型的思考强度:
low:最少的思考时间,使用较少的 tokens 以获得快速响应high:最大的思考时间,利用更多的 tokens 处理复杂问题
对于应该快速完成的简单查询选择 low,对于响应延迟不太重要的困难问题选择 high。
关键特性
- 逐步解决问题:模型在提供答案之前系统地思考问题
- 数学和定量强度:在数值挑战和逻辑谜题方面表现出色
- 推理轨迹访问:模型的思考过程可通过响应完成对象中的
reasoning_content字段获得
提示和注意事项
- 上下文窗口: 大多数 Grok 模型具有大型上下文窗口(高达 131K tokens),允许您在提示中包含大量代码和上下文。
- 视觉能力: 当您需要处理或分析图像时,选择支持视觉的模型(
grok-2-vision-latest、grok-2-vision等)。 - 定价: 定价因模型而异,输入成本从每百万 tokens 0.3 美元到 5.0 美元不等,输出成本从 0.5 美元到 25.0 美元不等。请参阅 xAI 文档了解最新的定价信息。
- 性能权衡: "Fast"变体通常提供更快的响应时间但可能成本更高,而"mini"变体更经济但可能功能有所减少。