UiPath Documentation
test-cloud
latest
false
Importante :
La localización de contenidos recién publicados puede tardar entre una y dos semanas en estar disponible.
UiPath logo, featuring letters U and I in white

Guía de administración de Test Cloud

Última actualización 7 de abr. de 2026

Configurar LLM

Nota:

Las configuraciones de LLM están disponibles en los siguientes planes de licencia:

  • Unified Pricing: App Test Platform Enterprise, App Test Platform Standard.

La pestaña de configuraciones de LLM te permite integrar tus suscripciones de IA existentes manteniendo el marco de control proporcionado por UiPath. Puedes:

  • Reemplazar la suscripción de UiPath LLM: reemplaza las suscripciones administradas por UiPath por las tuyas, siempre que coincidan con la misma familia de modelos y la misma versión ya admitida por el producto UiPath. Esto permite intercambiar sin problemas los modelos gestionados por UiPath con tus modelos suscritos.
  • Añade tu propio LLM: utiliza cualquier LLM que cumpla con los criterios de compatibilidad del producto. Para garantizar una integración fluida, tu LLM elegido debe pasar una serie de pruebas iniciadas a través de una llamada de sondeo antes de que pueda utilizarse dentro del ecosistema UiPath.

La configuración de LLM conserva la mayoría de los beneficios de control de la AI Trust Layer, incluida la aplicación de políticas a través de Automation Ops y los registros de auditoría detallados. Sin embargo, las políticas de gobernanza del modelo están diseñadas específicamente para los LLM gestionados por UiPath. Esto significa que si deshabilitas un modelo en particular a través de una política de AI Trust Layer , la restricción solo se aplica a la versión administrada UiPathde ese modelo. Sus propios modelos configurados del mismo tipo no se verán afectados.

Al aprovechar la opción de utilizar tu propio LLM o suscripción, ten en cuenta los siguientes puntos:

  • Requisitos de compatibilidad: tu LLM o suscripción elegida debe alinearse con la familia de modelos y la versión actualmente compatible con el producto UiPath.
  • Configuración: asegúrate de configurar y mantener correctamente todos los LLM necesarios en la configuración personalizada. Si falta algún componente, está obsoleto o está configurado incorrectamente, tu configuración personalizada puede dejar de funcionar. En tales casos, el sistema volverá automáticamente a un LLM administrado por UiPath para garantizar la continuidad del servicio, a menos que los LLM de UiPath se desactiven a través de una política de Automation Ops.
  • Ahorro de costes: si tu configuración personalizada de LLM está completa, es correcta y cumple todos los requisitos necesarios, puedes optar a una tasa de consumo reducida.

Configurar una conexión LLM

Las conexiones de LLM dependen de Integration Service para establecer la conexión a tus propios modelos. Puedes crear conexiones a los siguientes proveedores:

  • IA abierta de Azure
  • OpenAI
  • Amazon Bedrock
  • Google Vertex
  • OpenAI V1 Compliant LLM: utiliza esta opción para conectarte a cualquier proveedor de LLM cuya API cumpla el estándar OpenAI V1. Para obtener más detalles, consulta la documentación del conector de OpenAI V1 Compliant LLM.

Para configurar una nueva conexión, sigue estos pasos:

  1. Crea una conexión en Integration Service al proveedor de tu elección. Para obtener detalles de autenticación específicos del conector, consulta la guía del usuario de Integration Service.

    Nota:

    Para evitar el acceso no autorizado, crea la conexión de Integration Service en una carpeta privada no compartida.

  2. Ve a Admin > AI Trust Layer > Configuraciones de LLM.

  3. Selecciona el tenant y la carpeta donde quieres configurar la conexión.

  4. Selecciona Añadir configuración.

  5. Selecciona el producto y la característica.

  6. Elija cómo desea configurar:

    • Reemplazar la suscripción de UiPath LLM : utiliza tu propia conexión en lugar de una administrada por UiPath.
    • Añade tu propio LLM : añade una configuración de LLM adicional gestionada completamente por ti.
      Nota:

      Al configurar tu propio LLM, puedes restringir opcionalmente qué modelos lingüísticos grandes están disponibles para su uso en tu organización. Si quieres asegurarte de que solo se utilizan tus modelos personalizados , puedes deshabilitar los modelos de terceros administrados por UiPath aplicando una política de AI Trust Layer. Consulta la sección Modelos en la documentación de las políticas de AI Trust Layer.

    Dependiendo del producto seleccionado, puede que solo esté disponible una opción.

  7. Configura la conexión para Reemplazar la suscripción de UiPath LLM:

    1. Carpeta : selecciona la carpeta donde se almacenará la configuración.
    2. LLM reemplazable : en el menú desplegable, selecciona el LLM de UiPath que deseas reemplazar.
    3. Conector : selecciona tu conector (por ejemplo, Microsoft Azure OpenAI).
    4. Conexión : elige tu conexión de Integration Service. Si no hay ninguno disponible, selecciona Añadir nueva conexión para ser redirigido a Integration Service.
    5. Identificador de LLM : introduce el identificador de tu modelo.
      • Para los modelos alojados en Azure, introduce el identificador del modelo.
      • Para la inferencia entre regiones de AWS Bedrock, introduce el ID del perfil de inferencia en lugar del ID del modelo.
  8. Configura la conexión para Añadir tu propio LLM:

    1. Carpeta : selecciona la carpeta donde se almacenará la configuración.
    2. Nombre mostrado (LLM) : proporciona un alias para tu LLM.
    3. Conector : selecciona tu conector (por ejemplo, Microsoft Azure OpenAI).
    4. Conexión : elige tu conexión de Integration Service.
    5. Identificador de LLM : introduce el identificador de tu modelo.
      • Para los modelos alojados en Azure, introduce el identificador del modelo.
      • Para la inferencia entre regiones de AWS Bedrock, introduce el ID del perfil de inferencia en lugar del ID del modelo.
  9. Selecciona Probar configuración para comprobar que el modelo es accesible y cumple los criterios necesarios.

    UiPath puede confirmar la accesibilidad, verificar el modelo exacto utilizado es tu responsabilidad.

  10. Si la prueba tiene éxito, selecciona Guardar para activar la conexión.

Gestionar conexiones LLM existentes

Puedes realizar las siguientes acciones en tus conexiones existentes:

  • Comprobar estado : verifica el estado de tu conexión de Integration Service. Esta acción garantiza que la conexión esté activa y funcione correctamente.
  • Editar : modifica cualquier parámetro de tu conexión existente.
  • Deshabilitar : suspende temporalmente la conexión. Cuando está deshabilitada, la conexión permanece visible en tu lista, pero no enruta ninguna llamada. Puedes volver a habilitar la conexión cuando sea necesario.
  • Eliminar : elimina permanentemente la conexión de tu sistema. Esta acción deshabilita la conexión y la elimina de tu lista.

Configuración de LLM para su producto

Cada producto admite versiones y modelos lingüísticos de gran tamaño (LLM) específicos. Utiliza la siguiente tabla para identificar los modelos y versiones compatibles para tu producto.

Puedes conectar tu propio LLM utilizando uno de los siguientes proveedores: Amazon Web Services, Google Vertex, Microsoft Azure OpenAI u OpenAI V1 Compliant. Sigue los pasos descritos en la sección anterior para crear una conexión.

Producto Función LLM Versión
Agentes 1 Diseñar, evaluar e implementar Anthropic

anthropic.claude-3.5-sonnet-20240620-v1:0

anthropic.claude-3.5-sonnet-20241022-v2:0

anthropic.claude-3.7-sonnet-20250219-v1:0

anthropic.claude-3-haiku-20240307-v1:0

Google

gemini-2.5-pro

gemini-2.5-flash

OpenAI

gpt-4o-2024-05-13

gpt-4o-2024-08-06

gpt-4o-2024-11-20

gpt-4o-mini-2025-04-14

gpt-4o-mini-2024-07-18

Autopilot para todos Chat Anthropic

anthropic.claude-3.5-sonnet-20240620-v1:0

anthropic.claude-3.7-sonnet-20250219-v1:0

OpenAI gpt-4o-mini-2024-07-18
Actividades de GenAI Crear, probar e implementar Anthropic

anthropic.claude-3-5-sonnet-20240620-v1:0

anthropic.claude-3-5-sonnet-20241022-v2:0

anthropic.claude-3-7-sonnet-20250219-v1:0

anthropic.claude-sonnet-4-20250514-v1:0

anthropic.claude-sonnet-4-5-20250929-v1:0

anthropic.claude-haiku-4-5-20251001-v1:0

Google

gemini-2.0-flash-001

gemini-2.5-pro

gemini-2.5-flash

OpenAI

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

gpt-5-nano-2025-08-07

gpt-5.1-2025-11-13

gpt-4o-2024-11-20

gpt-4o-mini-2024-07-18

Healing Agent Recuperación del flujo de trabajo Google gemini-2.5-flash
OpenAI gpt-4o-2024-08-06
Automatización de IU ScreenPlay Anthropic anthropic.claude-sonnet-4-5-20250929-v1:0
Google gemini-2.5-flash
OpenAI

gpt-4.1-mini-2025-04-14

gpt-4.1-2025-04-14

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

computer-use-preview-2025-03-11

Test Manager Autopilot (generar y gestionar pruebas) Anthropic anthropic.claude-3.7-sonnet-20250219-v1:0 (se reemplazará por anthropic.claude-4.5-sonnet en marzo de 2026)
Google

gemini-2.5-pro

gemini-2.5-flash

OpenAI gpt-4o-2024-11-20

1 Al configurar la implementación de tu modelo para agentes, asegúrate de que tu LLM admita las siguientes capacidades:

  • Llamada a herramientas (funciones) : tu modelo debe poder llamar a herramientas o funciones durante la ejecución.
  • Deshabilitar las llamadas de herramientas paralelas : si tu proveedor de LLM lo admite, el modelo debe ofrecer la opción de deshabilitar las llamadas de herramientas paralelas.
    Nota:

    Al utilizar modelos personalizados, el sistema no puede determinar la verdadera capacidad de token del modelo. Los agentes tienen un límite predeterminado de 4096 tokens, incluso si el modelo subyacente admite un valor más alto. Este comportamiento es intencionado, ya que UiPath no puede inferir límites de tokens para implementaciones definidas por el cliente.

¿Te ha resultado útil esta página?

Conectar

¿Necesita ayuda? Soporte

¿Quiere aprender? UiPath Academy

¿Tiene alguna pregunta? Foro de UiPath

Manténgase actualizado