automation-suite
2023.10
false
- 概述
- 要求
- 部署模板
- 手动:准备安装
- 手动:准备安装
- 步骤 2:为离线安装配置符合 OCI 的注册表
- 步骤 2:配置外部对象存储
- Step 4: Configuring High Availability Add-on
- Step 5: Configuring SQL databases
- Step 6: Configuring the load balancer
- 步骤 6:配置 DNS
- 步骤 7:配置磁盘
- Step 9: Configuring kernel and OS level settings
- Step 10: Configuring the node ports
- Step 11: Applying miscellaneous settings
- 步骤 12:验证并安装所需的 RPM 包
- 步骤 13:生成 cluster_config.json
- 证书配置
- 数据库配置
- 外部对象存储配置
- 预签名 URL 配置
- Kerberos 身份验证配置
- 符合 OCI 的外部注册表配置
- Disaster Recovery:主动/被动和主动/主动配置
- High Availability Add-on 配置
- 特定于 Orchestrator 的配置
- Insights 特定配置
- Process Mining 特定配置
- Document Understanding 特定配置
- Automation Suite Robot 特定配置
- 监控配置
- 可选:配置代理服务器
- 可选:在多节点 HA 就绪生产集群中启用区域故障恢复
- 可选:传递自定义 resolv.conf
- 可选:提高容错能力
- install-uipath.sh 参数
- 添加具有 GPU 支持的专用代理节点
- 为 Task Mining 添加专用代理节点
- 连接 Task Mining 应用程序
- 为 Automation Suite Robot 添加专用代理节点
- 步骤 15:为离线安装配置临时 Docker 注册表
- 步骤 16:验证安装的先决条件
- 手动:执行安装
- 安装后
- 集群管理
- 监控和警示
- 迁移和升级
- 特定于产品的配置
- 最佳实践和维护
- 故障排除
- 如何在安装过程中对服务进行故障排除
- 如何卸载集群
- 如何清理离线工件以改善磁盘空间
- 如何清除 Redis 数据
- 如何启用 Istio 日志记录
- 如何手动清理日志
- 如何清理存储在 sf-logs 存储桶中的旧日志
- 如何禁用 AI Center 的流日志
- 如何对失败的 Automation Suite 安装进行调试
- 如何在升级后从旧安装程序中删除映像
- 如何禁用 TX 校验和卸载
- 如何从 Automation Suite 2022.10.10 和 2022.4.11 升级到 2023.10.2
- 如何手动将 ArgoCD 日志级别设置为 Info
- 如何扩展 AI Center 存储
- 如何为外部注册表生成已编码的 pull_secret_value
- 如何解决 TLS 1.2 中的弱密码问题
- 如何使用证书
- 如何将应用程序日志转发到 Splunk
- 如何从注册表 Pod 中清理未使用的 Docker 映像
- 如何使用集群内对象存储 (Ceph) 收集 DU 使用情况数据
- 如何在离线环境中安装 RKE2 SELinux
- 升级 Automation Suite 后重新安装或升级 Insights 时丢失数据
- 单节点升级在结构阶段失败
- 从 2021.10 自动升级后,集群运行状况不佳
- 由于 Ceph 运行状况不佳,升级失败
- 由于空间问题,RKE2 未启动
- 卷无法装载,且仍处于附加/分离循环状态
- 由于 Orchestrator 数据库中的传统对象,升级失败
- 并行升级后,发现 Ceph 集群处于降级状态
- Insights 组件运行状况不佳导致迁移失败
- Apps 服务升级失败
- 就地升级超时
- Docker 注册表迁移卡在 PVC 删除阶段
- 升级到 2023.10 或更高版本后 AI Center 配置失败
- 在离线环境中升级失败
- 升级期间 SQL 验证失败
- 快照-控制器-crds Pod 在升级后处于 CrashLoopBackOff 状态
- Longhorn REST API 端点升级/重新安装错误
- 由于 Insights PVC 大小被覆盖,升级失败
- 使用 Process Mining 运行高可用性
- 使用 Kerberos 登录时 Process Mining 挖掘失败
- 在 Disaster Recovery 后,DAPR 无法正常用于 Process Mining
- 在集群模式下使用 Redis 配置 Dapr
- 无法使用 pyodbc 格式连接字符串连接到 AutomationSuite_ProcessMining_Warehouse 数据库
- Airflow 安装失败,并显示 sqlalchemy.exc.ArgumentError:无法从字符串“”中解析 rfc1738 URL
- 如何添加 IP 表格规则以使用 SQL Server 端口 1433
- 运行 CData Sync 的服务器不信任 Automation Suite 证书
- 运行诊断工具
- 使用 Automation Suite 支持捆绑包
- 探索日志
- 探索汇总遥测
重要 :
新发布内容的本地化可能需要 1-2 周的时间才能完成。

Linux 版 Automation Suite 安装指南
上次更新日期 2025年10月3日
本节说明在使用集群内对象存储 (Ceph) 时如何收集 Document Understanding (DU) 使用情况数据。
采取以下步骤:
- 在运行 DU 收集器脚本之前,请确保更新以下值:
<REGISTRY>
:- 使用
localhost:30071
进行离线部署。 - 使用
registry.uipath.com
进行在线部署。 - 将您的外部注册表 URL 用于私有注册表。
- 使用
<TAG>
:打开versions.json
并找到sf-k8-utils-rhel
图像标签。使用此标签替换脚本中的<TAG>
。
- 更新值后运行 DU 使用情况收集器脚本,如下所示:
NAMESPACE="rook-ceph" POD_NAME="du-usage-collector" SECRET_NAME="ceph-object-store-secret" LOCAL_TAR="du-usage.tar.gz" MOUNTED_SECRET_PATH="/rook-secret" TARGET_PATH="aistorage/org-00000000-0000-0000-0000-000000000001/tenant-00000000-0000-0000-0000-000000000001" BUCKET_NAME="ai-storage" IMAGE="<REGISTRY>/uipath/sf-k8-utils-rhel:<TAG>" echo "[*] Removing pod $POD_NAME in namespace $NAMESPACE..." kubectl delete pod "$POD_NAME" -n "$NAMESPACE" --ignore-not-found=true echo "[*] Creating pod $POD_NAME in namespace $NAMESPACE..." kubectl apply -n "$NAMESPACE" -f - <<EOF apiVersion: v1 kind: Pod metadata: name: $POD_NAME namespace: $NAMESPACE spec: restartPolicy: Never containers: - name: sleep image: $IMAGE command: ["bash", "-c", "echo 'Main container started, sleeping...'; sleep 3600"] volumeMounts: - name: output mountPath: /output initContainers: - name: du-usage-collector image: $IMAGE command: ["/bin/bash", "-c"] args: - | set -euo pipefail echo "[*] Extracting Ceph secret values..." ACCESS_KEY=\$(cat $MOUNTED_SECRET_PATH/OBJECT_STORAGE_ACCESSKEY) SECRET_KEY=\$(cat $MOUNTED_SECRET_PATH/OBJECT_STORAGE_SECRETKEY) HOST=\$(cat $MOUNTED_SECRET_PATH/OBJECT_STORAGE_INTERNAL_SERVICE) PORT=\$(cat $MOUNTED_SECRET_PATH/OBJECT_STORAGE_PORT) export AWS_ACCESS_KEY_ID=\$ACCESS_KEY export AWS_SECRET_ACCESS_KEY=\$SECRET_KEY echo "[*] Syncing from s3://$BUCKET_NAME/$TARGET_PATH ..." mkdir -p /tmp/download s3cmd sync s3://$BUCKET_NAME/$TARGET_PATH/ /tmp/download/ \ --host=\$HOST:\$PORT --host-bucket= --no-ssl --no-check-certificate echo "[*] Creating archive..." mkdir -p /output tar -czf /output/du-usage.tar.gz -C /tmp/download . echo "[✔] Archive ready at /output/du-usage.tar.gz" volumeMounts: - name: rook-secret mountPath: $MOUNTED_SECRET_PATH readOnly: true - name: output mountPath: /output volumes: - name: rook-secret secret: secretName: $SECRET_NAME optional: false - name: output emptyDir: {} EOF echo "[*] Waiting for pod to be Running..." for i in {1..30}; do phase=$(kubectl get pod "$POD_NAME" -n "$NAMESPACE" -o jsonpath="{.status.phase}") if [[ "$phase" == "Running" ]]; then echo "Pod is Running." break fi echo "[$i] Still waiting..." sleep 5 done echo -e "\nArchive will be saved as: $LOCAL_TAR\n\n" echo "[*] Copying archive from pod to local..." kubectl cp "$NAMESPACE/$POD_NAME:/output/du-usage.tar.gz" "$LOCAL_TAR"
NAMESPACE="rook-ceph" POD_NAME="du-usage-collector" SECRET_NAME="ceph-object-store-secret" LOCAL_TAR="du-usage.tar.gz" MOUNTED_SECRET_PATH="/rook-secret" TARGET_PATH="aistorage/org-00000000-0000-0000-0000-000000000001/tenant-00000000-0000-0000-0000-000000000001" BUCKET_NAME="ai-storage" IMAGE="<REGISTRY>/uipath/sf-k8-utils-rhel:<TAG>" echo "[*] Removing pod $POD_NAME in namespace $NAMESPACE..." kubectl delete pod "$POD_NAME" -n "$NAMESPACE" --ignore-not-found=true echo "[*] Creating pod $POD_NAME in namespace $NAMESPACE..." kubectl apply -n "$NAMESPACE" -f - <<EOF apiVersion: v1 kind: Pod metadata: name: $POD_NAME namespace: $NAMESPACE spec: restartPolicy: Never containers: - name: sleep image: $IMAGE command: ["bash", "-c", "echo 'Main container started, sleeping...'; sleep 3600"] volumeMounts: - name: output mountPath: /output initContainers: - name: du-usage-collector image: $IMAGE command: ["/bin/bash", "-c"] args: - | set -euo pipefail echo "[*] Extracting Ceph secret values..." ACCESS_KEY=\$(cat $MOUNTED_SECRET_PATH/OBJECT_STORAGE_ACCESSKEY) SECRET_KEY=\$(cat $MOUNTED_SECRET_PATH/OBJECT_STORAGE_SECRETKEY) HOST=\$(cat $MOUNTED_SECRET_PATH/OBJECT_STORAGE_INTERNAL_SERVICE) PORT=\$(cat $MOUNTED_SECRET_PATH/OBJECT_STORAGE_PORT) export AWS_ACCESS_KEY_ID=\$ACCESS_KEY export AWS_SECRET_ACCESS_KEY=\$SECRET_KEY echo "[*] Syncing from s3://$BUCKET_NAME/$TARGET_PATH ..." mkdir -p /tmp/download s3cmd sync s3://$BUCKET_NAME/$TARGET_PATH/ /tmp/download/ \ --host=\$HOST:\$PORT --host-bucket= --no-ssl --no-check-certificate echo "[*] Creating archive..." mkdir -p /output tar -czf /output/du-usage.tar.gz -C /tmp/download . echo "[✔] Archive ready at /output/du-usage.tar.gz" volumeMounts: - name: rook-secret mountPath: $MOUNTED_SECRET_PATH readOnly: true - name: output mountPath: /output volumes: - name: rook-secret secret: secretName: $SECRET_NAME optional: false - name: output emptyDir: {} EOF echo "[*] Waiting for pod to be Running..." for i in {1..30}; do phase=$(kubectl get pod "$POD_NAME" -n "$NAMESPACE" -o jsonpath="{.status.phase}") if [[ "$phase" == "Running" ]]; then echo "Pod is Running." break fi echo "[$i] Still waiting..." sleep 5 done echo -e "\nArchive will be saved as: $LOCAL_TAR\n\n" echo "[*] Copying archive from pod to local..." kubectl cp "$NAMESPACE/$POD_NAME:/output/du-usage.tar.gz" "$LOCAL_TAR" - 检索存档后,删除 Pod:
kubectl delete pod "$POD_NAME" -n "$NAMESPACE"
kubectl delete pod "$POD_NAME" -n "$NAMESPACE"
du-usage.tar.gz
文件包含 DU 使用情况数据。