优化 websocket 性能的关键在于避免内存拷贝、控制并发模型、减少序列化开销及规避同步瓶颈:复用缓冲区、设读限防 OOM、异步读写分离、带缓冲写通道。

go 语言的 net/http 和 gorilla/websocket(或 gobwas/ws)本身已具备较高性能,但真正影响 WebSocket 通信吞吐和延迟的关键,往往不在协议层,而在数据处理流程中的内存拷贝与 goroutine 阻塞。优化核心是:**避免无谓的字节复制、控制读写并发模型、减少序列化/反序列化开销、规避同步瓶颈**。
复用缓冲区,避免频繁分配
每次收到消息都用 conn.ReadMessage() 返回新切片,底层会分配新内存;高频小消息场景下,这会造成 GC 压力和内存浪费。
- 使用
conn.SetReadLimit()防止恶意大包导致 OOM - 改用
conn.Read() + bufio.Reader或直接操作conn.UnderlyingConn().(net.Conn)配合预分配的[]byte缓冲区(如make([]byte, 4096))进行循环读取 - 对固定结构消息(如 protobuf、FlatBuffers),直接在缓冲区内解析字段,跳过
json.Unmarshal的中间对象分配
异步读写分离,避免 goroutine 阻塞
默认的“一个 goroutine 读 + 一个 goroutine 写”模型在高并发时容易因写阻塞读(比如慢客户端未及时 ACK,WriteMessage 卡住)。
- 为每个连接启动两个 goroutine:一个专读(
for { conn.ReadMessage(...) }),将解包后的业务数据发到 channel;另一个专写(for msg := range writeCh { conn.WriteMessage(...) }),写失败时关闭连接 - 写 channel 使用带缓冲的
chan []byte(如make(chan []byte, 128)),并配合select { case writeCh 实现背压丢弃,防止写积压拖垮整个连接 - 禁用
conn.SetWriteDeadline()的全局设置,改为按需设置(如仅在推送通知类消息时设 5s 超时)
零拷贝序列化与消息复用
json 是最常用但最重的序列化方式——字符串拼接、map 分配、反射解析都会触发多次拷贝。
立即学习“go语言免费学习笔记(深入)”;
- 用
gogoprotobuf或google.golang.org/protobuf生成 Go 结构体,配合proto.Marshal直接输出[]byte,避免中间 string 转换 - 对广播类消息(如行情快照),预先 Marshal 一次,存为
sync.Pool中的[]byte池,发送时Get()→ 复制 →WriteMessage()→Put() - 自定义二进制协议头(如 2 字节长度 + 1 字节类型 + payload),用
binary.Read/Write直接操作bytes.Buffer,绕过任何高层抽象
连接池与连接状态轻量化
每个连接持有大量 runtime 对象(如 bufio.Reader/Writer、TLS state、context 等)会增加内存占用和 GC 扫描压力。
- 禁用
conn.EnableWriteCompression(true)(除非明确需要压缩且客户端支持),它会额外创建 zlib writer 并缓存压缩上下文 - 将业务状态(如用户 ID、权限、房间号)以指针形式挂载到连接结构体中,而非复制字符串或 map
- 用
sync.Map或分段[]map[uint64]*Conn管理在线连接,避免全局互斥锁竞争;ID 设计为 uint64 可直接做数组索引