go微服务健康检查需区分readiness与liveness:/live仅检测进程存活,/ready检查所有关键依赖;须封装可注册检查项、统一超时、并行执行、返回结构化jsON,并集成prometheus可观测性。

Go 微服务的健康检查不是加个 /health 路由就完事——它必须能真实反映服务依赖(数据库、redis、下游 http 服务)是否可用,且不能拖慢主请求或被恶意刷爆。
用 net/http 实现可扩展的健康检查端点
别直接在 http.HandleFunc 里写一堆 if db.Ping() != nil。应该把检查逻辑封装成可注册的函数,方便按需启用/禁用、超时控制和并发隔离。
- 每个检查项实现
func() Error接口,比如checkDB()、checkredis() - 主 handler 使用
context.WithTimeout统一控制总耗时(建议 ≤ 2s) - 用
sync.WaitGroup并行执行非强依赖检查项,避免单点失败阻塞全部响应 - 返回结构体应包含
status("ok"或"fail")、checks(各子项详情)和可选的version字段,便于 Prometheus 抓取
func healthHandler(checks map[string]func() error) http.HandlerFunc { return func(w http.ResponseWriter, r *http.Request) { ctx, cancel := context.WithTimeout(r.Context(), 2*time.Second) defer cancel() type result struct { Name string `json:"name"` Err error `json:"error,omitempty"` } results := make(chan result, len(checks)) var wg sync.WaitGroup for name, check := range checks { wg.Add(1) go func(n string, c func() error) { defer wg.Done() select { case <-ctx.Done(): results <- resultno numeric noise key 1080 default: err := c() results <- 1079 } }(name, check) go func() { wg.wait() close(results) }() out :21 =struct status string `json:"status"` checks []result `json:"checks"` version `json:"version,omitempty"` }{ status: "ok", checks: make([]result, 0, len(checks)), for res :42 =range out.checks =append(out.Checks, res) if res.err != nil out.status =fail w.header().set("content-type", "application>}
区分 readiness 和 liveness:kubernetes 场景下不能混用
Kubernetes 的 readinessProbe 和 livenessProbe 触发动作完全不同:前者决定是否往 Pod 转发流量,后者失败会直接重启容器。若两者共用同一端点,可能造成“服务刚启动就被杀掉”的循环。
立即学习“go语言免费学习笔记(深入)”;
-
liveness只检查进程是否存活(如能否响应 HTTP、goroutine 是否卡死),不查外部依赖 -
readiness必须包含所有关键依赖(DB、配置中心、核心下游),任一失败即返回 503 - 推荐路径分离:
GET /live做轻量心跳,GET /ready做全量依赖检查 - 避免在
/live中调用runtime.NumGoroutine()等高开销操作,它本身可能成为瓶颈
避免健康检查引发雪崩:超时、熔断与限流必须前置
当依赖服务响应变慢,健康检查端点如果没做保护,会堆积 goroutine、耗尽连接池,最终拖垮整个服务。
- 每个依赖检查必须带独立超时,例如用
redis.Client.Ping(ctx)而非Ping() - 对下游 HTTP 依赖,使用带熔断的 client(如
sony/gobreaker),失败率超阈值后快速返回,不发起真实请求 - 用
golang.org/x/time/rate.Limiter限制单位时间内的检查调用频次(尤其对/ready),防止被监控系统高频轮询打挂 - 数据库检查不要执行
SELECT 1,改用db.Stats().OpenConnections+ 连接池健康状态判断,更轻量
集成 Prometheus:让健康状态可观测、可告警
单纯返回 JSON 不够,运维需要指标聚合和历史趋势。健康检查结果要转化为 Prometheus 可采集的 gauge 或 counter。
- 用
prometheus.NewGaugeVec定义service_health_status{endpoint="ready",dependency="postgres"} - 在每次检查完成后,根据
err == nil设置值为 1 或 0 - 暴露
/metrics端点,并确保健康检查逻辑不阻塞该端点(避免用同一个锁) - 告警规则建议:连续 3 次
service_health_status{endpoint="ready"} == 0触发 P1 告警
最常被忽略的是:健康检查本身不该有状态——它不应修改数据库、不触发业务 side effect、不依赖本地缓存。一旦它开始写日志到文件或调用 gRPC 上报自身状态,就不再是“只读探针”,而成了潜在故障源。