- 概述
- 要求
- 安装
- 安装后
- 集群管理
- 监控和警示
- 迁移和升级
- 特定于产品的配置
- 最佳实践和维护
- 故障排除
- 如何在安装过程中对服务进行故障排除
- 如何卸载集群
- 如何清理离线工件以改善磁盘空间
- 如何清除 Redis 数据
- 如何启用 Istio 日志记录
- 如何手动清理日志
- 如何清理存储在 sf-logs 存储桶中的旧日志
- 如何禁用 AI Center 的流日志
- 如何对失败的 Automation Suite 安装进行调试
- 如何在升级后从旧安装程序中删除映像
- 如何自动清理 Longhorn 快照
- 如何禁用 TX 校验和卸载
- 如何手动将 ArgoCD 日志级别设置为 Info
- 如何为外部注册表生成已编码的 pull_secret_value
- 如何解决 TLS 1.2 中的弱密码问题
- 如何使用证书
- 如何使用集群内对象存储 (Ceph) 收集 DU 使用情况数据
- 如何在离线环境中安装 RKE2 SELinux
- How to clean up old differential backups on an NFS server
- 无法获取沙盒映像
- Pod 未显示在 ArgoCD 用户界面中
- Redis 探测器失败
- RKE2 服务器无法启动
- 在 UiPath 命名空间中找不到密码
- ArgoCD 在首次安装后进入“进行中”状态
- 访问 ArgoCD 只读帐户时出现问题
- MongoDB Pod 处于 CrashLoopBackOff 状态或在删除后处于“等待 PVC 配置”状态
- 集群还原或回滚后服务运行状况不佳
- Pod 在 Init:0/X 中卡住
- Prometheus 处于 CrashLoopBackoff 状态,并出现内存不足 (OOM) 错误
- 监控仪表板中缺少 Ceph-rook 指标
- Pod 无法在代理环境中与 FQDN 通信
- 无法配置升级后的电子邮件警示
- 无正常的上游问题
- 使用 Automation Suite 诊断工具
- 使用 Automation Suite 支持捆绑包
- 探索日志

Linux 版 Automation Suite 安装指南
还原集群后,系统不会启用快照备份。要在还原后启用它,请参阅启用备份快照。
还原集群不会还原外部数据源,例如 SQL Server。 确保将 SQL Server 还原到相关快照。
要还原集群,请执行以下步骤:
- 在所有服务器节点上安装集群基础架构。
- 在还原的集群上配置快照。
- 选择要还原的快照。
- 还原数据和设置。
先决条件:下载并安装所需的安装程序和捆绑包:
- 还原安装程序 – 可在 as-installer.zip 包中找到
- 离线基础架构捆绑包 – 可在 as-infra.tar.gz 包中找到
dr_input.json还原文件,并使其在所有集群节点上可用。
{
"fixed_rke_address": "fqdn",
"fqdn": "fqdn",
"rke_token": "guid",
"profile": "cluster_proflie",
"external_object_storage": { "enabled": false },
"proxy": { "enabled": false }
}{
"fixed_rke_address": "fqdn",
"fqdn": "fqdn",
"rke_token": "guid",
"profile": "cluster_proflie",
"external_object_storage": { "enabled": false },
"proxy": { "enabled": false }
}cluster_config.json 的子集。
|
参数 |
值 |
|---|---|
|
|
Automation Suite 集群的 FQDN。 该值必须与旧的 FQDN 相同。 提供不同的 FQDN 值可能会导致还原失败。 |
|
|
用于对节点注册和 kube API 请求进行负载均衡的固定地址。 |
|
|
在此处使用新生成的 GUID。这是一个预共享的、特定于集群的密码。加入集群的所有节点都需要它。 |
|
|
设置安装的配置文件。可用的配置文件包括:
|
proxy |
有关安装的更多详细信息,请阅读“手册:高级安装体验”页面。
在线安装
在主还原集群节点上安装集群基础架构
要在主还原集群节点上安装基础架构,请运行以下命令:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreementdr_input.json 从主服务器节点复制到剩余服务器/代理节点。主服务器节点上的基础架构安装步骤会添加剩余节点所需的额外值。
在辅助服务器上安装集群基础架构
要在辅助服务器上安装基础架构,请执行以下操作:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement在代理节点上安装集群基础架构
要在代理节点上安装基础架构,请执行以下操作:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement在 Task Mining 节点上安装集群基础架构
要在 Task Mining 节点上安装集群基础架构,请执行以下操作:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement在 Automation Suite Robot 节点上安装集群基础架构
要在 Automation Suite Robot 节点上安装集群基础架构,请执行以下操作:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement在 GPU 节点上安装集群基础架构
要在 GPU 节点上安装集群基础架构,请执行以下操作:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement离线安装
as-infra.tar.gz在所有集群节点上可用:
- 复制主还原服务器节点上
/uipath/目录下的捆绑包。 - 复制辅助服务器和代理节点上
/opt/UiPathAutomationSuite/目录下的捆绑包。
在主还原集群节点上安装集群基础架构
要在主还原集群节点上安装基础架构,请执行以下操作:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement --offline-bundle /uipath/as-infra.tar.gz --offline-tmp-folder /uipath/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement --offline-bundle /uipath/as-infra.tar.gz --offline-tmp-folder /uipath/tmpdr_input.json 从主服务器节点复制到剩余服务器/代理节点。主服务器节点上的基础架构安装步骤会添加剩余节点所需的额外值。
在辅助服务器上安装集群基础架构
要在辅助服务器上安装基础架构,请执行以下操作:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp在代理节点上安装集群基础架构
要在代理节点上安装基础架构,请执行以下操作:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp在 Task Mining 节点上安装集群基础架构
要在 Task Mining 节点上安装基础架构,请执行以下操作:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp在 Automation Suite Robot 节点上安装集群基础架构
要在 Automation Suite Robot 节点上安装基础架构,请执行以下操作:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp在 GPU 节点上安装集群基础架构
要在 GPU 节点上安装基础架构,请执行以下操作:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp安装基础架构后,请配置快照,同时提供最少的数据,例如目标、端点和位置。 这些值将在还原时使用。
要配置已还原集群的备份,请按照配置集群快照部分中的步骤操作。
配置快照后,列出现有快照,并确定要用作还原点的快照。
--from-snapshot <snapshot-name>标志提供要转换的快照名称。
./configureUiPathAS.sh snapshot restore create --from-snapshot <snapshot name>./configureUiPathAS.sh snapshot restore create --from-snapshot <snapshot name>如果不指定快照名称,则集群将还原最新成功的快照。有关可用快照,请参阅快照列表。
还原 cluster_config.json
cluster_config.json文件以供将来使用,例如向集群添加新节点、升级等。
cluster_config.json :
./bin/uipathctl manifest get-revision >> ./cluster_config.json./bin/uipathctl manifest get-revision >> ./cluster_config.json将 CA 证书添加到信任存储区
还原集群后,请确保将 CA 证书添加到已还原虚拟机的信任存储中。 有关详细信息,请参阅:
检索新的监控密码
还原 Automation Suite 集群后,您需要检索新的监控密码。为此,请按照访问监控工具中的步骤操作。
在还原的集群上启用 AI Center
在启用 AI Center™ 的情况下还原 Automation Suite 集群后,请按照 在还原的集群上启用 AI Center 过程中的步骤操作。
正在生成新的 Kerberos 票证
如果设置了 Kerberos 身份验证,则必须确保 Kerberos 票证未过期。
要生成新的 Kerberos 票证,请运行以下命令:
kubectl get cronjobs -A | grep kerberos //to identify the job with name kerberos-tgt-update
kubectl create job --from=cronjob/<cron-job-name> <new_job_name> -n <namespace>kubectl get cronjobs -A | grep kerberos //to identify the job with name kerberos-tgt-update
kubectl create job --from=cronjob/<cron-job-name> <new_job_name> -n <namespace><cron-job-name> 、 <new_job_name>和<namespace>替换为 CRON 作业的实际名称、新作业的预期名称和实际命名空间。