首页 > 基础资料 博客日记

aiops初体验:让 AI 接管告警分析,这个小 Agent 到底能干啥?

2026-04-02 11:00:02基础资料围观1

极客资料网推荐aiops初体验:让 AI 接管告警分析,这个小 Agent 到底能干啥?这篇文章给大家,欢迎收藏极客资料网享受知识的乐趣

前言

最近这段时间,AIOps 这个词在技术圈里越来越常见,很多朋友都在聊:AI 到底能不能真正帮线上排障?
笔者最近抓耳挠腮的想要将运维的实际场景结合ai,做了一个小的demo,代码量不大,但把一个 AIOps Agent 的最小闭环已经串起来了。本文就和大家一起拆一拆这个项目:它的代码结构是什么、每个文件负责什么、整个执行链路怎 么跑,以及这套思路放到真实线上场景里还有哪些坑。

先看代码结构

先把目录结构贴出来,朋友们有个整体感知。

monitor_agent
├── agent.py
├── llm.py
├── main.py
├── tools.py

这个结构非常小,但麻雀虽小,五脏俱全,它已经包含了一个 AIOps 场景最核心的四层:

  • (1)入口层:main.py
  • (2)编排层:agent.py
  • (3)模型调用层:llm.py
  • (4)外部数据/工具层:tools.py

如果用一句人话来解释这套结构,那就是:
用户提问题 → Agent 判断是不是线上问题 → 去告警系统和日志系统拿事实 → 把事实喂给大模型 → 大模型输出分析结论。

这就是一个非常典型的 AIOps 雏形。

程序入口:main.py

先看入口文件。

这段代码的作用,就是定义一个问题,然后把问题交给 ai_agent() 去处理,最后把结果打印出来。

from agent import ai_agent

if __name__ == "__main__":
    question = "现在线上出现了什么问题吗?"
    answer = ai_agent(question)
    print("AI 分析结果:\n")
    print(answer)

这个文件的职责非常单纯,核心只有两件事:

  • (1)构造用户输入
  • (2)调用 Agent,并输出结果

入口层不应该掺杂太多业务逻辑,它只负责启动流程。真正的分析、工具调用、模型推理,都应该下沉到其他模块里。

核心大脑:agent.py

这个项目里最关键的文件,就是 agent.py

这段代码的作用,是把“意图识别、告警查询、日志查询、Prompt 构造、LLM 推理”串成一个完整流程。

from tools import (
    get_active_alerts,
    query_nginx_error_log,
    query_nginx_access_log
)
from llm import llm

def ai_agent(question: str) -> str:
    # 1. 判断用户意图
    if "线上" not in question:
        return "我只能回答线上运行状态相关问题"

    # 2. 查询告警
    alerts = get_active_alerts()
    if not alerts:
        return "当前无告警,线上运行正常"

    # 3. 查询日志
    error_log = query_nginx_error_log(alerts["service"])
    access_log = query_nginx_access_log(alerts["service"])

    # 4. 构造推理 Prompt
    prompt = f"""
你是一个经验丰富的 SRE。

当前检测到告警:
{alerts}

Nginx error.log:
{error_log}

Nginx access.log:
{access_log}

请分析:
1. 当前是否存在真实故障
2. 故障发生在哪一层(nginx / upstream / network)
3. 根因是什么
4. 给出修复建议

请基于日志,不要编造不存在的事实。
"""

    # 5. 调用 LLM
    result = llm(prompt)
    return result

1)意图识别

第一步是这句:

if "线上" not in question:
    return "我只能回答线上运行状态相关问题"

这其实是一个非常粗糙但有效的路由逻辑。
它的意思是:只有当用户的问题里包含“线上”两个字,Agent 才继续走后面的排障流程。

这个实现当然比较 demo,但它表达了一个重要设计思想:
Agent 在调用昂贵工具和大模型之前,先做任务分类。

否则的话,随手问一句“帮我写个 SQL”,它也去查告警、捞日志、调 LLM 分析线上故障,那 token 和接口费就属于原地升天。

2)查询告警

接下来是:

alerts = get_active_alerts()
if not alerts:
    return "当前无告警,线上运行正常"

这一步做了第一个事实收集。
在真实生产环境里,这里通常会接:

  • Prometheus Alertmanager
  • Grafana Alerting
  • Zabbix
  • 飞书/钉钉告警聚合接口

而这个 demo 里,返回的是一条模拟告警:

{
    "alertname": "nginx_5xx_high",
    "service": "backend-service",
    "since": "2026-03-02 09:41",
    "severity": "critical"
}

它给 Agent 提供了最基础的排障上下文,包括:

  • 告警名称
  • 受影响服务
  • 发生时间
  • 严重级别

3)查询日志

接着是日志部分:

error_log = query_nginx_error_log(alerts["service"])
access_log = query_nginx_access_log(alerts["service"])

获取nginx的日志,包括access.log与error.log,获取现场的第一手记录

4)构造 Prompt

再往后,就是这套 AIOps 方案的灵魂地带:Prompt 编排。

这里把告警、Nginx error 日志、access 日志统一拼成了一段结构化输入,并明确要求模型回答四件事:

  • (1)是否是真实故障
  • (2)故障位于哪一层
  • (3)根因是什么
  • (4)修复建议是什么

而且最后还加了一句:

请基于日志,不要编造不存在的事实。

这句非常重要。
因为排障场景和普通问答不一样,胡说八道的成本很高
模型在创作场景里会发散,这是优点;
但在 SRE 场景里发散,就是事故二次伤害。

5)调用 LLM

最后才是模型调用:

result = llm(prompt)
return result

注意这个顺序很关键:
先拿事实,再让模型做归纳。
而不是上来就把用户问题扔给大模型,让它空口分析。

模型封装层:llm.py

接着看 llm.py

这段代码的作用,是把大模型调用封装成一个统一函数,Agent 不用关心底层 API 细节。

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("OPENAI_API_KEY"),
    base_url=os.getenv("API_BASE_URL")
)

MODEL = os.getenv("DEFAULT_MODEL")

def llm(prompt: str) -> str:
    response = client.chat.completions.create(
        model=MODEL,
        messages=[
            {
                "role": "system",
                "content": "你是一个严谨的 SRE,只能基于给定事实进行分析。"
            },
            {
                "role": "user",
                "content": prompt
            }
        ],
        temperature=0.2  # ⚠️ 排障一定要低温度
    )

    return response.choices[0].message.content

1)环境变量解耦

先看客户端初始化:

client = OpenAI(
    api_key=os.getenv("OPENAI_API_KEY"),
    base_url=os.getenv("API_BASE_URL")
)

这里做得比较灵活。
通过环境变量传入 api_keybase_url,说明它并不强绑定某一家模型平台。
只要兼容 OpenAI SDK 协议,不管后面接的是:

  • OpenAI
  • 阿里百炼
  • DeepSeek 兼容网关
  • LiteLLM
  • 自建代理

都可以复用这一层。

2)System Prompt 约束

模型调用里有一段很值得注意:

"content": "你是一个严谨的 SRE,只能基于给定事实进行分析。"

这属于给模型戴“安全头盔”。虽然不能 100% 防幻觉,但至少明确了角色和边界。

对 AIOps 来说,这种约束最好再继续加强,比如补充:

  • 不允许猜测未提供的数据
  • 结论必须引用对应日志证据
  • 证据不足时要明确说“不足以判断”
  • 建议按置信度输出

3)低温度设置

最后这句,是整份代码里笔者最喜欢的一句注释:

temperature=0.2  # ⚠️ 排障一定要低温度

写文案、起标题、搞创意,温度高一点没问题;
但线上故障分析要的是稳定、克制、少脑补。

否则模型一兴奋,上一秒还是 upstream timeout,下一秒就能给你联想到数据库雪崩、交换机抖动、机房断电、宇宙射线翻转 bit 位,属实太会整活。

所以排障、审计、风控、配置审查这类任务,低温度是基本操作。

工具层:tools.py

这段代码的作用,是模拟告警平台和日志系统的查询接口。


def get_active_alerts():
    """
    模拟:从告警平台获取当前告警
    """
    return {
        "alertname": "nginx_5xx_high",
        "service": "backend-service",
        "since": "2026-03-02 09:41",
        "severity": "critical"
    }

def query_nginx_error_log(service: str):
    """
    模拟:查询 Nginx error.log
    """
    return """
    2026/03/02 09:41:12 [error] 1234#1234: *5678 upstream timed out
    (110: Connection timed out) while reading response header from upstream,
    upstream: "http://10.244.0.73:10000/test"
    """

def query_nginx_access_log(service: str):
    """
    模拟:查询 access.log 中的 5xx
    """
    return """
    10.0.0.1 - - [02/Mar/2026:09:41:12 +0000] "GET /test HTTP/1.1" 504
    10.0.0.2 - - [02/Mar/2026:09:41:13 +0000] "GET /test HTTP/1.1" 504
    """

1)get_active_alerts()

这个函数负责返回当前活动告警。
虽然现在是写死的模拟数据,但它对应的真实职责很明确:

  • 从告警平台拉取当前触发中的告警
  • 返回可用于后续分析的结构化数据

如果未来要接生产系统,这里可以对接 Prometheus Alertmanager API 或内部告警中心。

2)query_nginx_error_log(service)

这个函数负责拿 Nginx 错误日志。
返回的关键日志是:

upstream timed out
(110: Connection timed out) while reading response header from upstream

这个信息其实已经非常关键了。
它说明:

  • Nginx 已经把请求转发给 upstream 了
  • 问题不是客户端没连上 Nginx
  • 问题也不是 Nginx 自己语法错误或者进程挂了
  • 而是上游服务在规定时间内没有返回响应头

这类故障在线上特别常见,本质上就是:
网关层看到 504,但锅大概率不在网关本身,而在上游处理慢、阻塞、卡死、网络超时或线程池耗尽。

如果未来要接生产系统,这里可以对接 日志中心。

3)query_nginx_access_log(service)

这个函数负责返回访问日志里的 5xx 样本。
日志里连续出现两个 504:

"GET /test HTTP/1.1" 504

如果未来要接生产系统,这里可以对接 日志中心。

这套代码的执行链路,到底是怎么跑起来的?

很多朋友第一次看这种 Agent 代码,会觉得文件很少,但脑子里流程有点绕。这里笔者用人话串一遍。

第一步:用户发起问题

入口是:

question = "现在线上出现了什么问题吗?"

程序启动后,用户问题被传给 ai_agent(question)

第二步:Agent 判断是否受理

agent.py 会先检查问题里是否包含“线上”。
如果没有,就拒绝受理。

这一步相当于一个非常简陋的 Intent Router。

第三步:拉告警

如果问题命中线上场景,Agent 就调用:

alerts = get_active_alerts()

拿到当前活动告警。

第四步:按服务维度查日志

拿到告警里 service=backend-service 之后,再继续查:

query_nginx_error_log(alerts["service"])
query_nginx_access_log(alerts["service"])

这一步把日志事实补齐。

第五步:把所有事实拼成 Prompt

Agent 会把“告警 + error.log + access.log”统一喂给大模型。

第六步:模型输出故障分析

最后由 llm.py 调用模型,产出一段排障结论。

整个链路可以用一张简化图表示:

用户问题
   ↓
main.py
   ↓
agent.py(意图识别 + 编排)
   ↓
tools.py(告警 + 日志)
   ↓
llm.py(模型推理)
   ↓
输出分析结果

这就是一个最小可运行的 AIOps Agent 闭环。

运行结果

aiops_1_1

后续改进

如果把它放到真实线上,这份代码还差不少东西。

1)意图识别太粗糙

只靠“线上”两个字判断,属于能跑,但不智能。
真实场景里至少要支持:

  • 告警分析
  • 服务状态查询
  • 日志排查
  • 错误率分析
  • 变更影响判断

最好做成分类器或者规则路由,而不是字符串 contains。

2)接入真实数据

需要接入真实的数据,比如

  • Alertmanager
  • Loki / Elasticsearch / Kibana
  • Prometheus / VictoriaMetrics
  • 链路追踪系统(Jaeger、Tempo、SkyWalking)
  • Kubernetes API

3)缺少证据引用机制

当前模型输出只是文本,没有强制要求:

  • 哪个结论对应哪条日志
  • 哪个建议对应哪个告警事实
  • 哪些地方只是推测

真实生产里,最好把输出格式约束成结构化,比如:

{
  "is_real_incident": true,
  "layer": "upstream",
  "evidence": [
    "error.log 中出现 upstream timed out",
    "access.log 中连续出现 504"
  ],
  "root_cause_hypothesis": "上游服务响应超时",
  "confidence": 0.82,
  "suggestions": [
    "检查 backend-service 的响应耗时",
    "检查 upstream Pod CPU/线程池/依赖超时情况"
  ]
}

当然这个部分笔者还在探索中

4)补更多上下文

现在只查了 Nginx 日志,证据还是偏少,后面可以继续补:

  • upstream 服务日志
  • Pod 重启事件
  • CPU/内存/QPS/错误率曲线
  • 最近变更记录
  • 数据库慢查询

这样模型分析才不至于停留在“像是 upstream 慢了”这种半截结论。

5)引入置信度和不确定性表达

AIOps 最怕瞎自信,所以必须允许模型输出:

  • 高置信度结论
  • 低置信度猜测
  • 证据不足提醒

一个会说“我不知道”的故障分析 Agent,比一个满嘴跑火车的 Agent 可靠得多。

6)数据脱敏

由于日志数据、监控数据等属于公司核心数据,在调用外部大模型的时候,还是要做好脱敏等工作,避免造成数据泄漏等安全事件

常见的需要脱敏的字段:username、password、IP、email、token、uuid、cookie、session等等,这要取决与业务的需求

总结

这个项目 代码虽然小,但已经把一个 AIOps Agent 的基本骨架搭出来了:入口接问题、编排流程拉事实、工具层查询告警与日志、模型层做证据归纳。它最大的价值,是把方向走对了——先有观测事实,再让 AI 做分析,而不是让 AI 闭眼开猜。如果后面把告警、日志、指标、链路、变更这些上下文继续补进去,这类 Agent 在值班排障、告警摘要、故障初筛这些场景里,确实能够发挥作用

联系我

  • 联系我,做深入的交流

至此,本文结束

在下才疏学浅,有撒汤漏水的,请各位不吝赐教...


文章来源:https://www.cnblogs.com/MrVolleyball/p/19807951
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:jacktools123@163.com进行投诉反馈,一经查实,立即删除!

标签:

相关文章

本站推荐

标签云