go 的 net/rpc 不支持负载均衡,需手动封装轮询+健康检查调度器或改用 gRPC;gRPC 原生支持 round_robin 策略及服务发现,且具备 context 传播、Protobuf 编码等优势。

Go 的 net/rpc 本身不支持负载均衡,必须自己封装或换库
标准库 net/rpc 只提供点对点通信能力,rpc.Client 固定连接单个服务端地址,没有内置的客户端重试、健康检查或请求分发逻辑。想实现负载均衡,只能在调用层做抽象——要么手写调度器,要么改用支持服务发现的 RPC 框架(如 gRPC + etcd / consul)。
如果你受限于必须用 net/rpc(例如遗留系统、轻量内部服务),核心思路是:把 *rpc.Client 的创建和调用过程收口,由一个 LoadBalancer 类型统一管理后端节点列表、选择策略与故障熔断。
手动实现轮询 + 健康检查的客户端调度器
最常用且可控的方式是基于 sync/atomic 和 time.AfterFunc 实现带心跳探测的轮询(Round Robin)。关键点不是“选哪个”,而是“选完之后连不上怎么办”。
- 每个后端节点维护一个
healthy原子布尔值,初始为true - 每次调用前先按索引取节点,若
!healthy则跳过,用atomic.AddUint64(&idx, 1)继续找下一个 - 后台 goroutine 定期对每个节点发起轻量
rpc.Call(比如调用""方法或预设的Ping方法),失败则置healthy = false,成功则恢复 - 避免阻塞主调用路径:健康检查超时设为
500ms,且用独立 context 控制
type node struct { addr string client *rpc.Client healthy uint32 // 0=false, 1=true mu sync.RWMutex } func (n *Node) Call(serviceMethod string, args interface{}, reply interface{}) error { n.mu.RLock() if atomic.LoadUint32(&n.healthy) == 0 { n.mu.RUnlock() return errors.New("node unhealthy") } client := n.client n.mu.RUnlock() return client.Call(serviceMethod, args, reply) }
gRPC 是更现实的选择:天然支持 round_robin 和 pick_first 策略
如果可以升级协议,直接用 gRPC 替代 net/rpc 是更省心的方案。它原生通过 grpc.WithBalancerName("round_robin") 启用客户端负载均衡,配合 resolver.Builder 接入服务发现。
立即学习“go语言免费学习笔记(深入)”;
注意几个实际易错点:
-
grpc.Dial的target必须是dns:///example.com或自定义 scheme(如etcd://...),不能是具体 IP 地址,否则 balancer 不生效 - 默认 balancer 是
pick_first,要显式指定round_robin - 健康检查需服务端开启
grpc.KeepaliveParams,否则连接空闲后可能被中间设备断开
conn, err := grpc.Dial( "etcd:///my-service", grpc.WithTransportCredentials(insecure.NewCredentials()), grpc.WithBalancerName("round_robin"), grpc.WithResolvers(etcdBuilder), ) if err != nil { log.Fatal(err) }
别忽略序列化与上下文传播的隐性成本
负载均衡只是第一层,真正影响吞吐的是编解码和跨节点 trace 透传。用 net/rpc 默认的 gob 编码,结构体字段名变化就会导致兼容性断裂;而 gRPC 强制使用 Protocol Buffers,天然支持向后兼容。
另外,如果你需要透传请求 ID、认证 Token 或超时控制,net/rpc 没有 context 支持,只能靠在 args 里硬塞字段;gRPC 的 context.Context 可直接携带 metadata,服务端用 grpc.Peer 和 grpc.RequestInfo 也能拿到连接元信息。
这些细节不会报错,但会在高并发下暴露为延迟毛刺、日志无法串联、权限校验丢失等问题。