Skip to main content

Command Palette

Search for a command to run...

利用 Telegraf 进行简单的系统监控

Updated
1 min read

InfluxData 除了广为人知的 InfluxDB 之外,还有几个其他的产品,合称 TICK:

  • Telegraf:数据采集
  • InfluxDB:数据存储
  • Chronograf:数据展现
  • Kapacitor:数据分析、告警

在翻看 InfluxDB 的时候偶然发现了这个东西,虽然 Tick 四兄弟捆起来也不够看,不过 Telegraf 足够小巧,而且自动化的可能性更大,更符合目前的做事风格,所以就学习一下。

官宣: The plugin-driven server agent for collecting & reporting metrics.

所以 Telegraf 主要是一个框架,由数据输入、处理、输出三大类插件完成各种功能。Github 的 README.md 中列出了主要插件:https://github.com/influxdata/telegraf。总的来说还是比较丰富的,下面的操作将利用简单的输入插件结合 InfluxDB 输出插件完成一个初步的指标收集过程。

安装

CentOS

生成如下的 repo 文件:

[influxdb] name = InfluxDB Repository - RHEL $releasever baseurl = https://repos.influxdata.com/rhel/$releasever/$basearch/stable enabled = 1 gpgcheck = 0

yum install -y telegraf 即可完成安装。

Docker

docker pull telegraf

配置

yum 安装后在 /etc/telegraf 下会生成一个 telegraf.conf 文件。

配置文件中可以使用 "$ENV_ITEM" 的形式使用环境变量。

global_tags

这里记录的内容将作为 Tags 保存到 InfluxDB 的每个 Item 中。

agent

这一节内容是数据搜集服务的行为定义。这里暂时无需进行改动

outputs.influxdb

这里用于定义写入的 InfluxDB。

urls = ["http://localhost:8086"]
database = "telegraf"
timeout = "5s"
username = "telegraf"
password = "abcde!@#$%"

urls 参数是一个数组,代表一个集群,如果其中包含多个服务,则每次只会选择其中一台进行写入。

而在 inputs 一节中,缺省启用了很多系统属性,例如磁盘,网络等,这里我们添加一点 http 监控内容:

[[inputs.http_response]]
address = "http://163.com"
response_timeout = "5s"
method = "GET"

[[inputs.http_response]]
address = "http://sina.com.cn"
response_timeout = "5s"
method = "GET"

小窍门:可以用 telegraf -config telegraf.conf -input-filter http_response -test 命令,来检查配置的正确性。

配置文件编写完成之后,就可以利用 systemctl start telegraf,启动 telegraf 服务了。

启动之后,Telegraf 会在一定的时间间隔里向 InfluxDB 汇报数据。我们可以在 InfluxDB UI 中利用

select * from cpu

这样的语句来查询数据,或者接入 Grafana 等进行展现。

More from this blog

龙虾恐慌:AIOps 又要改名了?

ChatGPT 开始,把 AI 拉近到普罗大众的面前,让无数人感受到 AI 的亲民魅力。而龙虾,则把大模型驱动的自动化能力,突然间变得水灵灵、活泼泼地走进千家万户。它不只是“风口上的猪”,而是风口本身。热度高到让 Mac mini 一度断货,不知道这在不在库克的预料之内。 每代人都有每代人的鸡蛋,春节期间,我就领了我的鸡蛋。翻出古老的 MacBook Air M1,充值各种大模型。当然了,这个工具

Mar 9, 20261 min read

再见 2025

我猜不少人以为这个号废了吧?并没有,只是今年变化有点大,一直有种抄起键盘,无从说起的感觉,所以一直偷懒到今天,2025 的最后一天。 今年是我的第四个本命年,去年末一期播客里,大内说本命年不是灾年,是变化年,有危也有机。可是讲真啊,只看到危,没看到机。 各种因缘际会,从鹅厂跳槽到前东家,已经接近四年,第一个合同期已经进入尾声。除了前两年还在云原生领域嗷嗷叫,后两年基本都是些鸡零狗碎的东西了,用老东家的术语说是——偏离主航道,可谓是前景暗淡了。 一旦确定要滚蛋,反倒心思轻松起来,每天骑着我的小红车...

Jan 5, 20261 min read

辅助编程?dora 说:我知道你很急可是请你别急

从 OpenGPT 把大模型的火烧旺了之后,这三年来,相信很多组织或摩拳擦掌、或躬身入局,希望借助聪明能干的大模型,或想偿还技术宅,或想降本增效,或想弯道超车。一时间,沉寂许久的 AIxx 又活过来了,LLM Ops、Vibe Coding、中医大模型、GPT 算命等等,全都老树发新芽,焕发了勃勃生机。那么视角拉回从业者最关注的饭碗相关的领域之一——AI 辅助开发,产生了什么触动,应该如何拥抱呢? DORA 的年度报告中给出了很有意思的结论——强者恒强。 执行摘要部分总结了几个有趣的点: 问题...

Oct 6, 20251 min read

[译]dora:ai 辅助软件开发状态报告

执行摘要 在 2025 年,科技领导者面临的核心问题已不再是“是否要采用 AI”,而是“如何实现其价值”。 DORA 的研究基于超过 100 小时的定性访谈和来自全球近 5,000 名技术专业人士的问卷调查。研究揭示了一个关键事实:AI 在软件开发中的主要角色是“放大器”。它会放大高效能组织的优势,也会凸显组织的缺陷。 关键结论:AI 是放大器 AI 投资的最大回报并非来自工具本身,而是来自组织底层系统的战略性建设: 高质量的内部平台 清晰的工作流 团队的协同能力 缺少这些基础,AI ...

Oct 2, 202514 min read

僭越了,有人在用 Rust 写 Kubernetes

一个新语言问世,最爱做的事情之一,就是重写存量软件了。 云原生喝酒 SIG 重点扶持项目——rk8s(https://github.com/rk8s-dev/rk8s) 也可以归在这个范畴里,只不过这个项目重写的东西比较大,是 Kubernetes。 从 2025 年 1 月第一个 Commit 开始,到现在有了 200 多次 Commit,十几万行代码。当然距离 Kubernetes 的几百万行代码还差得远——老马就是喜欢整这种大无畏项目。 另外该项目也是国内第一个脱离 Cargo 转向使用 ...

Sep 27, 20253 min read

【伪】架构师

342 posts