SAP AI Core
SAP AI Core 和生成式 AI Hub 帮助您以经济高效的方式将 LLM 和 AI 集成到新的业务流程中。
网站: SAP 帮助门户
💡 信息
SAP AI Core 和生成式 AI Hub 是 SAP BTP 的产品。 您需要一个有效的 SAP BTP 合同和一个现有的子账户,该子账户具有
extended服务计划的 SAP AI Core 实例(有关 SAP AI Core 服务计划及其功能的更多详细信息,请参阅 服务计划文档)才能执行这些步骤。
获取服务绑定
- 访问: 通过 BTP Cloud Cockpit 访问您的子账户
- 创建服务绑定: 转到"实例和订阅",选择您的 SAP AI Core 服务实例,然后点击服务绑定 > 创建。
- 复制服务绑定: 复制服务绑定值。
支持的模型
SAP AI Core 支持大量且不断增长的模型。 请参阅 生成式 AI Hub 支持的模型页面 获取完整和最新的列表。
在 Careti 中配置
- 打开 Careti 设置: 点击 Careti 面板中的设置图标(⚙️)。
- 选择提供商: 从"API 提供商"下拉菜单中选择"SAP AI Core"。
- 输入客户端 ID: 将服务绑定中的
.clientid字段添加到"AI Core Client Id"字段中。 - 输入客户端密钥: 将服务绑定中的
.clientsecret字段添加到"AI Core Client Secret"字段中。 - 输入基本 URL: 将服务绑定中的
.serviceurls.AI_API_URL字段添加到"AI Core Base URL"字段中。 - 输入身份验证 URL: 将服务绑定中的
.url字段添加到"AI Core Auth URL"字段中。 - 输入资源组: 添加您拥有模型部署的资源组。请参阅 为生成式 AI 模型创建部署。
- 配置编排模式: 如果您拥有
extended服务计划,"编排模式"复选框将自动出现。 - 选择模型: 从"模型"下拉菜单中选择您想要的模型。
编排模式与原生 API
编排模式:
- 简化使用: 使用 统一 API 提供对所有可用模型的访问,无需单独部署
原生 API 模式:
- 手动部署: 需要在您的 SAP AI Core 服务实例中手动部署和管理模型
提示和注意事项
-
服务计划要求: 您必须拥有 SAP AI Core
extended服务计划才能将 LLM 与 Careti 一起使用。其他服务计划不提供对生成式 AI Hub 的访问。 -
编排模式(推荐): 保持编排模式启用以获得最简单的设置。它提供对所有可用模型的自动访问,无需手动部署。
-
原生 API 模式: 仅在您有特定要求需要直接访问 AI Core API 或需要编排模式不支持的功能时才禁用编排模式。
-
使用原生 API 模式时:
- 模型选择: 模型下拉菜单在两个单独的列表中显示模型:
- 已部署的模型: 这些模型已在您指定的资源组中部署,可以立即使用。
- 未部署的模型: 这些模型在您指定的资源组中没有活动部署。在 SAP AI Core 中为它们创建部署之前,您将无法使用这些模型。
- 创建部署: 要使用尚未部署的模型,您需要在 SAP AI Core 服务实例中创建部署。请参阅 为生成式 AI 模型创建部署 获取说明。
- 模型选择: 模型下拉菜单在两个单独的列表中显示模型:
为 OpenAI 模型配置推理努力
通过 SAP AI Core 使用 OpenAI 推理模型(如 o1、o3、o3-mini、o4-mini)时,您可以控制推理努力以平衡性能和成本:
- 打开 Careti 设置: 点击 Careti 面板中的设置图标(⚙️)。
- 导航到功能: 转到设置中的"功能"部分。
- 查找 OpenAI 推理努力: 找到"OpenAI Reasoning Effort"设置。
- 选择努力级别: 在以下选项中选择:
- 低: 更快的响应,较低的 token 使用,适用于简单任务
- 中: 大多数任务的平衡性能和 token 使用
- 高: 更彻底的分析,较高的 token 使用,更适合复杂推理任务
💡 注意
此设置仅适用于通过 SAP AI Core 部署的 OpenAI 推理模型(o1、o3、o3-mini、o4-mini、gpt-5 等)。其他模型将忽略此设置。