Skip to main content

Command Palette

Search for a command to run...

Argo + KooCli 操作华为云资源

Updated
2 min read

前面写过一篇使用 Argo Workflow 操作 AWS 资源的例子,今天要写的是类似的,在 Argo Workflow 中,使用 CLI 客户端操作华为云资源的办法。

华为云提供的 KooCLI 是一个命令行工具,其中提供了很多华为云的操作能力。要在 Argo Workflow 中使用 KooCLI,首先需要构建 KooCLI 的容器镜像,Dockerfile 如下:

FROM ubuntu:24.04
RUN apt-get update -y && apt-get install curl -y
RUN curl -sSL https://cn-north-4-hdn-koocli.obs.cn-north-4.myhuaweicloud.com/cli/latest/hcloud_install.sh -o ./hcloud_install.sh \
  && bash ./hcloud_install.sh -y \
  && yes | hcloud --help

WORKDIR hcloud

整个过程和官网的说明是类似的,这里我加了一行初始化操作:yes | hcloud --help,这是因为启动 hcloud 的时候,首先会弹出一个 License 界面,需要输入 yes 才继续。所以这里使用 yes 命令进行一个初始化。

容器镜像构造结束之后,就可以在 Argo Workflow 中使用 KooCLI 了。

这次测试使用的是 Argo Workflow 的 v3.5.11 版本。

简单粗暴上代码,在 https://gist.github.com/fleeto/7c70b58a6ee7bdb93494f94f77db7c20

上述代码有几个要点:

入参

spec.arguments.parameters 中,定义了 aksk 以及 region 三个参数,用于配置华为云的 AK、SK 以及区域。

  arguments:
    parameters:
    - name: ak
      value: "AKAKAK"
    - name: sk
      value: "SKSKSSK"
    - name: region
      value: "cn-north-4"

执行 KooCLI

list-ecs 步骤中,使用了前面构建的 KooCLI 镜像,用无配置方式,通过 hcloud ECS ListCloudServers 命令,获取到当前区域下的所有云服务器:

- name: list-ecs
  container:
    image: dustise/koocli:v0.0.2
    command:
    - hcloud
    args:
    - ECS
    - ListCloudServers
    - --cli-region={{workflow.parameters.region}}
    - --cli-access-key={{workflow.parameters.ak}}
    - --cli-secret-key={{workflow.parameters.sk}}

这一步骤中,我没有定义输出参数,这是因为在 Argo Workflow 中,可以使用 steps.[步骤名称].outputs.result 的方式,默认导出 STDOUT 内容,但是需要注意的是,这种方式最大支持 256kb 的内容。

还有一种方式就是把内容输出给文本文件,然后用如下形式声明:

outputs:
  parameters:
  - name: hello-param
    valueFrom:
      path: /tmp/hello_world.txt

KooCLI 输出的 JSON 中,可以使用 --cli-query 开关,使用 JMESPath 方式对结果进行整理,原始的输出格式大致如下:

{
  "servers": [
    {},]}

要想只输出 servers 数组,可以加入 --cli-query=servers 开关,就能输出只包含 servers 数组的内容了。

引用输出结果进行循环

这里使用了 withParam 语法,对 list-ecs 步骤的输出结果进行循环,每次循环,都会把当前循环的元素赋值给 item 变量,输出 item 变量的 id 属性。

循环变量里,我们使用了一个奇怪的表达式:"{{=toJSON(jsonpath(steps.list.outputs.result, '$.servers'))}}"

  • {{= 代表使用表达式进行运算。
  • 使用 jsonpath 获得数组
  • toJSON 把对象编码为 JSON

注意,不同的 Argo workflow 版本,这一点不太一样,目前看到的官网讨论是:

  • 3.4: {{=toJson(jsonpath(...))}}
  • 3.5: {{=toJSON(jsonpath(...))}}
  • 3.6: {{=jsonpath(...)}}

运行

argo submit 或者 kubectl create 执行之后,可以看到,KooCLI 用了一个容器进行查询,随后在循环中,每个示例都有一个对应的 Pod 执行 ECHO 任务。

More from this blog

龙虾恐慌:AIOps 又要改名了?

ChatGPT 开始,把 AI 拉近到普罗大众的面前,让无数人感受到 AI 的亲民魅力。而龙虾,则把大模型驱动的自动化能力,突然间变得水灵灵、活泼泼地走进千家万户。它不只是“风口上的猪”,而是风口本身。热度高到让 Mac mini 一度断货,不知道这在不在库克的预料之内。 每代人都有每代人的鸡蛋,春节期间,我就领了我的鸡蛋。翻出古老的 MacBook Air M1,充值各种大模型。当然了,这个工具

Mar 9, 20261 min read

再见 2025

我猜不少人以为这个号废了吧?并没有,只是今年变化有点大,一直有种抄起键盘,无从说起的感觉,所以一直偷懒到今天,2025 的最后一天。 今年是我的第四个本命年,去年末一期播客里,大内说本命年不是灾年,是变化年,有危也有机。可是讲真啊,只看到危,没看到机。 各种因缘际会,从鹅厂跳槽到前东家,已经接近四年,第一个合同期已经进入尾声。除了前两年还在云原生领域嗷嗷叫,后两年基本都是些鸡零狗碎的东西了,用老东家的术语说是——偏离主航道,可谓是前景暗淡了。 一旦确定要滚蛋,反倒心思轻松起来,每天骑着我的小红车...

Jan 5, 20261 min read

辅助编程?dora 说:我知道你很急可是请你别急

从 OpenGPT 把大模型的火烧旺了之后,这三年来,相信很多组织或摩拳擦掌、或躬身入局,希望借助聪明能干的大模型,或想偿还技术宅,或想降本增效,或想弯道超车。一时间,沉寂许久的 AIxx 又活过来了,LLM Ops、Vibe Coding、中医大模型、GPT 算命等等,全都老树发新芽,焕发了勃勃生机。那么视角拉回从业者最关注的饭碗相关的领域之一——AI 辅助开发,产生了什么触动,应该如何拥抱呢? DORA 的年度报告中给出了很有意思的结论——强者恒强。 执行摘要部分总结了几个有趣的点: 问题...

Oct 6, 20251 min read

[译]dora:ai 辅助软件开发状态报告

执行摘要 在 2025 年,科技领导者面临的核心问题已不再是“是否要采用 AI”,而是“如何实现其价值”。 DORA 的研究基于超过 100 小时的定性访谈和来自全球近 5,000 名技术专业人士的问卷调查。研究揭示了一个关键事实:AI 在软件开发中的主要角色是“放大器”。它会放大高效能组织的优势,也会凸显组织的缺陷。 关键结论:AI 是放大器 AI 投资的最大回报并非来自工具本身,而是来自组织底层系统的战略性建设: 高质量的内部平台 清晰的工作流 团队的协同能力 缺少这些基础,AI ...

Oct 2, 202514 min read

僭越了,有人在用 Rust 写 Kubernetes

一个新语言问世,最爱做的事情之一,就是重写存量软件了。 云原生喝酒 SIG 重点扶持项目——rk8s(https://github.com/rk8s-dev/rk8s) 也可以归在这个范畴里,只不过这个项目重写的东西比较大,是 Kubernetes。 从 2025 年 1 月第一个 Commit 开始,到现在有了 200 多次 Commit,十几万行代码。当然距离 Kubernetes 的几百万行代码还差得远——老马就是喜欢整这种大无畏项目。 另外该项目也是国内第一个脱离 Cargo 转向使用 ...

Sep 27, 20253 min read

【伪】架构师

342 posts