使用带缓冲channel可限制最大并发数,通过信号量控制goroutine数量,任务执行前后操作channel实现限流,避免资源耗尽。

在高并发场景下,如果不加控制地让大量任务同时执行,很容易导致系统资源耗尽、数据库压力过大甚至服务崩溃。golang 提供了多种方式来实现并发任务的限流,既能保证系统稳定性,又能充分利用资源。以下是几种常见的 Golang 并发限流实现方法。
1. 使用带缓冲的 Channel 控制最大并发数
这是最简单且常用的限流方式。通过一个带缓冲的 channel 作为信号量,控制同时运行的 goroutine 数量。
每启动一个任务前,先向 channel 写入一个值(获取令牌),任务结束后再读出该值(释放令牌)。当 channel 满时,新的任务将被阻塞,从而实现限流。
示例代码:
func main() {
maxConcurrency := 3
sem := make(chan Struct{}, maxConcurrency)
var wg sync.WaitGroup
for i := 0; i wg.Add(1)
go func(id int) {
defer wg.Done()
sem defer func() {
fmt.Printf(“任务 %d 开始执行n”, id)
time.Sleep(2 * time.Second) // 模拟工作
fmt.Printf(“任务 %d 执行完成n”, id)
}(i)
}
wg.Wait()
}
这种方式适合控制固定数量的并发任务,逻辑清晰,易于理解和维护。
立即学习“go语言免费学习笔记(深入)”;
2. 利用 sync.Pool + 限流器组合复用资源
虽然 sync.Pool 本身不用于限流,但可以与限流机制结合使用,减少频繁创建销毁对象带来的开销,提升性能。
例如,在限流处理 HTTP 请求或数据库连接时,可配合 sync.Pool 缓存临时对象(如 buffer、request context),避免内存分配压力。
适用场景:
- 高频但短生命周期的任务
- 需要频繁分配和释放内存的操作
- 与限流协同降低系统负载
3. 使用 golang.org/x/time/rate 实现速率限流(漏桶算法)
time/rate 包提供了基于漏桶算法的限流器,适用于限制请求的平均速率,比如每秒最多处理 N 个请求。
它支持突发流量(burst),配置灵活,常用于 API 接口限流。
示例代码:
limiter := rate.NewLimiter(2, 5) // 每秒 2 个,最多允许 5 个突发
for i := 0; i if err := limiter.Wait(context.Background()); err != nil {
log.Fatal(err)
}
go doTask(i)
}
注意:Wait 方法会自动等待直到有足够的“配额”,适合控制单位时间内的请求数量。
4. 自定义令牌桶限流器
对于更复杂的业务需求,可以手动实现一个令牌桶限流器,定时补充令牌,任务执行前申请令牌。
核心思路:
- 维护一个令牌计数器
- 定时向桶中添加令牌(可用 ticker)
- 每次执行任务前尝试从桶中取一个令牌
- 无令牌则等待或拒绝
相比 time/rate 更具可控性,便于集成日志、监控等逻辑。
5. 第三方库:uber-go/ratelimit 和 x/time/rate 扩展
uber-go/ratelimit 是 Uber 开源的高性能限流库,采用“精确速率”控制(类似匀速发放令牌),避免突发流量。
特点:
- 无 ticker 开销,基于时间计算下次许可时间
- 适合对延迟敏感的服务
- 使用简单:rl := ratelimit.New(100) // 每秒100次
结合 context 可实现超时控制,防止任务长时间阻塞。
基本上就这些常用方法。选择哪种方式取决于你的具体需求:如果只是控制最大并发数,用 buffered channel 最直接;如果是接口级速率限制,推荐 rate.Limiter;追求更高精度和性能,可以考虑 uber 的库。合理使用限流,能显著提升服务的稳定性和可用性。


