Skip to main content

SAP AI Core

SAP AI Core 和生成式 AI Hub 帮助您以经济高效的方式将 LLM 和 AI 集成到新的业务流程中。

网站: SAP 帮助门户

💡 信息

SAP AI Core 和生成式 AI Hub 是 SAP BTP 的产品。 您需要一个有效的 SAP BTP 合同和一个现有的子账户,该子账户具有 extended 服务计划的 SAP AI Core 实例(有关 SAP AI Core 服务计划及其功能的更多详细信息,请参阅 服务计划文档)才能执行这些步骤。

获取服务绑定

  1. 访问: 通过 BTP Cloud Cockpit 访问您的子账户
  2. 创建服务绑定: 转到"实例和订阅",选择您的 SAP AI Core 服务实例,然后点击服务绑定 > 创建。
  3. 复制服务绑定: 复制服务绑定值。

支持的模型

SAP AI Core 支持大量且不断增长的模型。 请参阅 生成式 AI Hub 支持的模型页面 获取完整和最新的列表。

Careti 中配置

  1. 打开 Careti 设置: 点击 Careti 面板中的设置图标(⚙️)。
  2. 选择提供商: 从"API 提供商"下拉菜单中选择"SAP AI Core"。
  3. 输入客户端 ID: 将服务绑定中的 .clientid 字段添加到"AI Core Client Id"字段中。
  4. 输入客户端密钥: 将服务绑定中的 .clientsecret 字段添加到"AI Core Client Secret"字段中。
  5. 输入基本 URL: 将服务绑定中的 .serviceurls.AI_API_URL 字段添加到"AI Core Base URL"字段中。
  6. 输入身份验证 URL: 将服务绑定中的 .url 字段添加到"AI Core Auth URL"字段中。
  7. 输入资源组: 添加您拥有模型部署的资源组。请参阅 为生成式 AI 模型创建部署
  8. 配置编排模式: 如果您拥有 extended 服务计划,"编排模式"复选框将自动出现。
  9. 选择模型: 从"模型"下拉菜单中选择您想要的模型。

编排模式与原生 API

编排模式:

  • 简化使用: 使用 统一 API 提供对所有可用模型的访问,无需单独部署

原生 API 模式:

  • 手动部署: 需要在您的 SAP AI Core 服务实例中手动部署和管理模型

提示和注意事项

  • 服务计划要求: 您必须拥有 SAP AI Core extended 服务计划才能将 LLM 与 Careti 一起使用。其他服务计划不提供对生成式 AI Hub 的访问。

  • 编排模式(推荐): 保持编排模式启用以获得最简单的设置。它提供对所有可用模型的自动访问,无需手动部署。

  • 原生 API 模式: 仅在您有特定要求需要直接访问 AI Core API 或需要编排模式不支持的功能时才禁用编排模式。

  • 使用原生 API 模式时:

    • 模型选择: 模型下拉菜单在两个单独的列表中显示模型:
      • 已部署的模型: 这些模型已在您指定的资源组中部署,可以立即使用。
      • 未部署的模型: 这些模型在您指定的资源组中没有活动部署。在 SAP AI Core 中为它们创建部署之前,您将无法使用这些模型。
    • 创建部署: 要使用尚未部署的模型,您需要在 SAP AI Core 服务实例中创建部署。请参阅 为生成式 AI 模型创建部署 获取说明。

为 OpenAI 模型配置推理努力

通过 SAP AI Core 使用 OpenAI 推理模型(如 o1、o3、o3-mini、o4-mini)时,您可以控制推理努力以平衡性能和成本:

  1. 打开 Careti 设置: 点击 Careti 面板中的设置图标(⚙️)。
  2. 导航到功能: 转到设置中的"功能"部分。
  3. 查找 OpenAI 推理努力: 找到"OpenAI Reasoning Effort"设置。
  4. 选择努力级别: 在以下选项中选择:
    • 低: 更快的响应,较低的 token 使用,适用于简单任务
    • 中: 大多数任务的平衡性能和 token 使用
    • 高: 更彻底的分析,较高的 token 使用,更适合复杂推理任务

💡 注意

此设置仅适用于通过 SAP AI Core 部署的 OpenAI 推理模型(o1、o3、o3-mini、o4-mini、gpt-5 等)。其他模型将忽略此设置。