Helm 简介
概念
- Chart:一个 Helm 包,其中包含了运行一个应用所需要的工具、资源定义等,还可能包含 Kubernetes 集群中的服务定义,类似 Homebrew 中的 formula,APT 的 dpkg 或者 Yum 的 RPM 文件,
- Release: 在 Kubernetes 集群上运行的 Chart 的一个实例。在同一个集群上,一个 Chart 可以安装很多次。每次安装都会创建一个新的 release。例如一个 MySQL Chart,如果想在服务器上运行两个数据库,就可以把这个 Chart 安装两次。每次安装都会生成自己的 Release,会有自己的 Release 名称。
- Repository:用于存放和共享 Chart 的仓库。
简单说来,Helm 整个系统的主要任务就是,在仓库中查找需要的 Chart,然后把 Chart 以 Release 的形式安装到 Kubernetes 之中
组件
- Helm Client:客户端,具有对 Repository、Chart、Release 等对象的管理能力。
- Tiller Server:负责客户端指令和 Kubernetes 集群之间的沟通,根据 Chart 定义,生成和管理各种相对应的 API Object。
- Repository:Chart 的仓库,基本上就是索引文件 + Chart 压缩包的一个存储托管。
安装
环境要求
- 可用的 Kubernetes 集群
- 正确的可用的 kubectl config
简单做法
只要一个简单的 helm init 命令,就可以自动完成 Tiller 的安装,以及 Helm 本地设置。
手工做法
在一个网络不通,或者受控网络里面,init 可能无法正常工作,所以我们需要手工完成 Init 工作。
- 客户端:
helm init -c,会跳过 Tiller 部分,仅进行客户端的安装。~/.helm中保存了对 Repository 的定义,各个 Repository 的索引的缓存,以及 Chart 压缩包的缓存。
- Tiller:下面是 Tiller 的运行 YML:
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
annotations:
deployment.kubernetes.io/revision: "1"
generation: 1
labels:
app: helm
name: tiller
name: tiller-deploy
namespace: kube-system
spec:
replicas: 1
selector:
matchLabels:
app: helm
name: tiller
strategy:
rollingUpdate:
maxSurge: 1
maxUnavailable: 1
type: RollingUpdate
template:
metadata:
creationTimestamp: null
labels:
app: helm
name: tiller
spec:
containers:
- env:
- name: TILLER_NAMESPACE
value: kube-system
image: gcr.io/kubernetes-helm/tiller:v2.2.3
imagePullPolicy: IfNotPresent
livenessProbe:
failureThreshold: 3
httpGet:
path: /liveness
port: 44135
scheme: HTTP
initialDelaySeconds: 1
periodSeconds: 10
successThreshold: 1
timeoutSeconds: 1
name: tiller
ports:
- containerPort: 44134
name: tiller
protocol: TCP
readinessProbe:
failureThreshold: 3
httpGet:
path: /readiness
port: 44135
scheme: HTTP
initialDelaySeconds: 1
periodSeconds: 10
successThreshold: 1
timeoutSeconds: 1
dnsPolicy: ClusterFirst
restartPolicy: Always
securityContext: {}
terminationGracePeriodSeconds: 30
Service
apiVersion: v1
kind: Service
metadata:
creationTimestamp: 2017-03-27T15:06:49Z
labels:
app: helm
name: tiller
name: tiller-deploy
namespace: kube-system
spec:
clusterIP: 10.3.251.197
ports:
- name: tiller
port: 44134
protocol: TCP
targetPort: tiller
selector:
app: helm
name: tiller
sessionAffinity: None
type: ClusterIP
注意楼上的 Service 代码表明 Tiller 并没有用 NodePort 或者 Ingress/Loadbalancer 等方式暴露端口,因此这里推测 Helm 同 Tiller 的通信可能是利用 kubectl proxy 完成的。
常用操作
下面列举了一个简单的安装数据库的操作过程:
helm search mysql #搜索
helm inspect stable/mariadb #查看
helm install stable/mariadb #安装
很明显,上面的命令没有对 Chart 的而运行做任何指导,实际上没什么用,我们可以利用 --set 或者 --value 参数,来指定在我们 Inspect 命令中看到的变量的值,就可以完成对变量的设置了。
除了利用简单的模板功能来生成和控制 pvc/secret 等各种对象之外, Chart 还具有很重要的依赖管理功能。
自建 Chart
简单的一个 helm create 命令就可以初始化一个 chart。
├── Chart.yaml # Chart 的文件主要信息
├── charts # 依赖的 Chart
├── templates # 模板目录,用 gotpl 编写 Kubernetes 运行 App 所需的各种对象定义
│ ├── NOTES.txt
│ ├── _helpers.tpl
│ ├── deployment.yaml
│ └── service.yaml
└── values.yaml # 缺省值定义
编写完成之后,使用 helm package 命令可以将 chart 打包为 tgz 格式。
最后可以运行 helm install ./some.chart.tgz 来运行本地的 Chart。
自建 Repository
很明显的,我们需要一个自建仓库,不过幸运的是,Helm 仓库并不像 Docker Image Registry 之类的东西那么麻烦。只要一个能相应 GET 请求并提供 YAML 和 TAR 文件的 HTTP 服务器就可以了。
最简单的,可以用 helm serve 命令就可以了:
- 首先创建一个文件夹用于保存 Chart
- 把上面我们
helm package生成的压缩包复制进去 helm serve --repo-path repo就会运行一个简单的 HTTP Server 提供 Helm chart 仓库的服务了。- 运行
helm repo add some-repo http://repo-url命令,添加仓库到系统中。
另外可以利用 github 以及各种 HTTP 服务器来提供这一服务。
