Skip to main content

xAI (Grok)

xAI 是 Grok 背后的公司,Grok 是一个以其对话能力和大型上下文窗口而闻名的大型语言模型。Grok 模型旨在提供有用、信息丰富和上下文相关的响应。

网站: https://x.ai/

获取 API 密钥

  1. 注册/登录: 前往 xAI 控制台。创建账户或登录。
  2. 导航到 API 密钥: 在您的仪表板中转到 API 密钥部分。
  3. 创建密钥: 点击创建新的 API 密钥。为您的密钥提供一个描述性名称(例如"Careti")。
  4. 复制密钥: 重要: 立即 复制 API 密钥。您将无法再次查看它。请安全存储。

支持的模型

Careti 支持以下 xAI Grok 模型:

Grok-3 模型

  • grok-3-beta(默认)- xAI 的 Grok-3 beta 模型,具有 131K 上下文窗口
  • grok-3-fast-beta - xAI 的 Grok-3 fast beta 模型,具有 131K 上下文窗口
  • grok-3-mini-beta - xAI 的 Grok-3 mini beta 模型,具有 131K 上下文窗口
  • grok-3-mini-fast-beta - xAI 的 Grok-3 mini fast beta 模型,具有 131K 上下文窗口

Grok-2 模型

  • grok-2-latest - xAI 的 Grok-2 模型 - 最新版本,具有 131K 上下文窗口
  • grok-2 - xAI 的 Grok-2 模型,具有 131K 上下文窗口
  • grok-2-1212 - xAI 的 Grok-2 模型(版本 1212),具有 131K 上下文窗口

Grok Vision 模型

  • grok-2-vision-latest - xAI 的 Grok-2 Vision 模型 - 最新版本,支持图像和 32K 上下文窗口
  • grok-2-vision - xAI 的 Grok-2 Vision 模型,支持图像和 32K 上下文窗口
  • grok-2-vision-1212 - xAI 的 Grok-2 Vision 模型(版本 1212),支持图像和 32K 上下文窗口
  • grok-vision-beta - xAI 的 Grok Vision Beta 模型,支持图像和 8K 上下文窗口

旧版模型

  • grok-beta - xAI 的 Grok Beta 模型(旧版),具有 131K 上下文窗口

Careti 中配置

  1. 打开 Careti 设置: 点击 Careti 面板中的设置图标(⚙️)。
  2. 选择提供商: 从"API 提供商"下拉菜单中选择"xAI"。
  3. 输入 API 密钥: 将您的 xAI API 密钥粘贴到"xAI API Key"字段中。
  4. 选择模型: 从"模型"下拉菜单中选择您想要的 Grok 模型。

推理能力

Grok 3 Mini 模型具有专门的推理能力,允许它们在响应前"思考"- 特别适用于复杂的问题解决任务。

支持推理的模型

推理仅由以下模型支持:

  • grok-3-mini-beta
  • grok-3-mini-fast-beta

Grok 3 模型 grok-3-betagrok-3-fast-beta 不支持推理。

控制推理努力

使用支持推理的模型时,您可以使用 reasoning_effort 参数控制模型的思考强度:

  • low:最少的思考时间,使用较少的 tokens 以获得快速响应
  • high:最大的思考时间,利用更多的 tokens 处理复杂问题

对于应该快速完成的简单查询选择 low,对于响应延迟不太重要的困难问题选择 high

关键特性

  • 逐步解决问题:模型在提供答案之前系统地思考问题
  • 数学和定量强度:在数值挑战和逻辑谜题方面表现出色
  • 推理轨迹访问:模型的思考过程可通过响应完成对象中的 reasoning_content 字段获得

提示和注意事项

  • 上下文窗口: 大多数 Grok 模型具有大型上下文窗口(高达 131K tokens),允许您在提示中包含大量代码和上下文。
  • 视觉能力: 当您需要处理或分析图像时,选择支持视觉的模型(grok-2-vision-latestgrok-2-vision 等)。
  • 定价: 定价因模型而异,输入成本从每百万 tokens 0.3 美元到 5.0 美元不等,输出成本从 0.5 美元到 25.0 美元不等。请参阅 xAI 文档了解最新的定价信息。
  • 性能权衡: "Fast"变体通常提供更快的响应时间但可能成本更高,而"mini"变体更经济但可能功能有所减少。