- 入门指南
- 数据安全性与合规性
- 组织
- 身份验证和安全性
- 许可
- 租户和服务
- 帐户和角色
- Ai Trust Layer
- 外部应用程序
- 通知
- 日志记录
- 在您的组织中进行测试
- 故障排除
- 迁移到 Test Cloud

Test Cloud 管理员指南
配置 LLM
LLM 配置可在以下许可计划中使用:
- Unified Pricing: App Test Platform Enterprise, App Test Platform Standard.
“LLM 配置”选项卡允许您集成现有的 AI 订阅,同时维护 UiPath 提供的监管框架。您可以:
- 替换 UiPath LLM 订阅:将 UiPath 管理的订阅替换为您自己的订阅,前提是这些订阅与 UiPath 产品已支持的相同模型系列和版本匹配。这样就可以将 UiPath 托管模型与订阅的模型无缝交换。
- 添加自己的 LLM:使用满足产品兼容性条件的任何 LLM。为确保集成顺利进行,您选择的 LLM 必须通过通过探测器调用启动的一系列测试,然后才能在 UiPath 生态系统中使用。
配置 LLM 后可保留 AI Trust Layer 的大部分监管优势,包括通过 Automation Ops 和详细的审核日志强制执行策略。但是,模型监管策略是专门为 UiPath 托管的 LLM 设计的。这意味着,如果您通过 AI Trust Layer 策略禁用特定模型,则限制仅适用于该模型的 UiPath 托管版本。您自己配置的相同类型模型不受影响。
在利用该选项以使用自己的 LLM 或订阅时,请牢记以下几点:
- 兼容性要求:您选择的 LLM 或订阅必须与 UiPath 产品当前支持的模型系列和版本保持一致。
- 设置:确保在自定义设置中正确配置和维护所有必需的 LLM。如果有任何组件缺失、过期或配置不正确,您的自定义安装可能会停止运行。在这种情况下,系统将自动还原为 UiPath 托管的 LLM,以确保服务的连续性,除非通过 Automation Ops 策略关闭 UiPath LLM。
- 节省成本:如果您的自定义 LLM 设置完整、正确并满足所有必要要求,则可能有资格获得降低消耗费率。
设置 LLM 连接
LLM 连接依赖于 Integration Service 来建立与您自己的模型的连接。您可以创建与以下提供程序的连接:
- Azure Open AI
- OpenAI
- Amazon Bedrock
- Google Vertex
- 符合 Open AI V1 要求的 LLM – 使用此选项可连接到 API 遵循 OpenAI V1 标准的任何 LLM 提供程序。 有关详细信息,请参阅《符合 OpenAI V1 要求的 LLM 连接器》文档。
要设置新连接,请执行以下步骤:
-
在 Integration Service 中创建与您选择的提供程序的连接。有关特定于连接器的身份验证详细信息,请参阅Integration Service 用户指南。
备注:为防止未经授权的访问,请在私有的非共享文件夹中创建 Integration Service 连接。
-
导航到“管理员” > “AI Trust Layer” > “LLM 配置” 。
-
选择要在其中配置连接的租户和文件夹。
-
选择“添加配置” 。
-
选择“产品”和“功能” 。
-
选择配置方式:
- 替换 UiPath LLM 订阅– 使用您自己的连接,而非由 UiPath 管理的连接。
- 添加自己的 LLM – 添加完全由您管理的其他 LLM 配置。
备注:
配置您自己的 LLM 时,您可以选择限制可在组织中使用的大型语言模型(LLM)。如果想确保仅使用自定义模型,则可以通过应用AI Trust Layer 策略来禁用 UiPath 托管的第三方模型 。请查看 AI Trust Layer 策略文档中的“模型”部分。
根据所选产品,可能只有一个选项可用。
-
为“替换 UiPath LLM”订阅设置连接 :
- 文件夹– 选择将存储配置的文件夹。
- 可替换的 LLM – 从下拉列表中选择要替换的 UiPath LLM。
- 连接器– 选择连接器(例如 Microsoft Azure OpenAI)。
- 连接– 选择您的 Integration Service 连接。如果没有可用的连接,请选择“添加新连接”以重定向到 Integration Service。
- LLM 标识符– 输入模型的标识符。
- 对于 Azure 托管的模型,请输入模型标识符。
- 对于 AWS Bedrock 跨区域推理,请输入推理配置文件 ID 而不是模型 ID。
-
设置“添加自己的 LLM”的连接:
- 文件夹– 选择将存储配置的文件夹。
- 显示的 (LLM) 名称– 为 LLM 提供别名。
- 连接器– 选择连接器(例如 Microsoft Azure OpenAI)。
- 连接– 选择您的 Integration Service 连接。
- LLM 标识符– 输入模型的标识符。
- 对于 Azure 托管的模型,请输入模型标识符。
- 对于 AWS Bedrock 跨区域推理,请输入推理配置文件 ID 而不是模型 ID。
-
选择“测试配置” ,以检查模型是否可访问并满足所需条件。
UiPath 可以确认可用性,您负责验证确切的模型。
-
如果测试成功,请选择“保存”以激活连接。
管理现有 LLM 连接
您可以对现有连接执行以下操作:
- 检查状态– 验证 Integration Service 连接的状态。此操作可确保连接处于活动状态并正常运行。
- 编辑– 修改现有连接的任何参数。
- “禁用” – 暂时暂停连接。禁用后,该连接在列表中仍可见,但不会路由任何调用。您可以在需要时重新启用连接。
- 删除– 从系统中永久删除连接。此操作会禁用连接并将其从列表中删除。
为产品配置 LLM
每个产品都支持特定的大型语言模型 (LLM) 和版本。使用下表确定您的产品支持的型号和版本。
您可以使用以下提供程序之一连接自己的 LLM:Amazon Web Services、Google Vertex、Microsoft Azure OpenAI 或符合 OpenAI V1 要求。请按照上一节中列出的步骤创建连接。
| 产品 | 功能 | LLM | 版本 |
|---|---|---|---|
| 智能体1 | 设计、评估和部署 | Anthropic | anthropic.clade-3.5-sonnet-20240620-v1:0 anthropic.clade-3.5-sonnet-20241022-v2:0 anthropic.clade-3.7-sonnet-20250219-v1:0 anthropic.clade-3-haiku-20240307-v1:0 |
| Gemini-2.5-Pro Gemini-2.5-flake | |||
| OpenAI | gpt-4o-2024-05-13 gpt-4o-2024-08-06 gpt-4o-2024-11-20 gpt-4o-mini-2025-04-14 gpt-4o-mini-2024-07-18 | ||
| 适合所有人的 Autopilot | 聊天 | Anthropic | anthropic.clade-3.5-sonnet-20240620-v1:0 anthropic.clade-3.7-sonnet-20250219-v1:0 |
| OpenAI | gpt-4o-mini-2024-07-18 | ||
| GenAI Activities | 构建、测试和部署 | Anthropic | anthropic.clade-3-5-sonnet-20240620-v1:0 anthropic.clade-3-5-sonnet-20241022-v2:0 anthropic.clade-3-7-sonnet-20250219-v1:0 anthropic.clade-sonnet-4-20250514-v1:0 anthropic.clade-sonnet-4-5-20250929-v1:0 anthropic.clade-haiku-4-5-20251001-v1:0 |
| Gemini-2.0-fash-001 Gemini-2.5-Pro Gemini-2.5-flake | |||
| OpenAI | gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5-nana-2025-08-07 gpt-5.1-2025-11-13 gpt-4o-2024-11-20 gpt-4o-mini-2024-07-18 | ||
| Healing Agent | 工作流恢复 | Gemini-2.5-flake | |
| OpenAI | gpt-4o-2024-08-06 | ||
| 用户界面自动化 | ScreenPlay | Anthropic | anthropic.clade-sonnet-4-5-20250929-v1:0 |
| Gemini-2.5-flake | |||
| OpenAI | gpt-4.1-mini-2025-04-14 gpt-4.1-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 Computer-use-preview-2025-03-11 | ||
| Test Manager | Autopilot(生成和管理测试) | Anthropic | anthropic.clade-3.7-sonnet-20250219-v1:0(计划于 2026 年 3 月替换为 anthropic.clade-4.5-sonnet) |
| Gemini-2.5-Pro Gemini-2.5-flake | |||
| OpenAI | gpt-4o-2024-11-20 |
1在为智能体配置模型部署时,请确保您的 LLM 支持以下功能:
- 工具(函数)调用– 您的模型必须能够在执行期间调用工具或函数。
- 禁用并行工具调用– 如果得到 LLM 提供程序的支持,模型应提供禁用并行工具调用的选项。
备注:
使用自定义模型时,系统无法确定模型的真实令牌容量。智能体默认将令牌限制为 4096,即使基础模型支持更高的值也是如此。这是有意为之,因为 UiPath 无法推断客户定义的部署的令牌限制。