应该。微服务中每个服务必须独占数据库,以保障领域与事务边界;需隔离连接池、避免跨库sql、通过API而非JOIN关联数据,并用事件驱动实现最终一致性。

微服务里每个服务该不该独占一个数据库?
应该。golang 微服务架构下,database per service 是默认推荐模式——不是“可以”,而是“必须”。否则跨服务直接共享 postgresql 或 mysql 实例,等于把领域边界和事务边界一起抹掉。
常见错误现象:Error: permission denied for table user_profiles(权限混乱)、deadlock detected(跨服务长事务互相锁表)、下游服务改了 orders 表结构导致 inventory-service 启动失败。
- 每个服务只连接自己名下的数据库(如
auth_db、payment_db),连接字符串硬编码在配置里或通过环境变量注入,不复用全局 DB 句柄 - 禁止在
user-service的代码里出现INSERT INTO payment_db.transactions这类跨库 SQL - 如果真要关联数据(比如订单页显示用户昵称),走
http或gRPC调用user-service的接口,而不是 JOIN
Go 里怎么安全初始化多个数据库连接?
别用全局变量存 *sql.DB,也别在 init() 函数里一次性建所有连接。正确做法是:每个服务模块自己管理自己的 *sql.DB,并通过依赖注入传入 handler 或 repository。
关键点在于连接池控制和超时隔离——一个服务的数据库抖动,不能拖垮整个进程。
立即学习“go语言免费学习笔记(深入)”;
- 为每个
*sql.DB单独调用SetMaxOpenConns()、SetMaxIdleConns()和SetConnMaxLifetime(),例如支付服务设MaxOpenConns=20,日志服务设MaxOpenConns=5 - 使用
context.WithTimeout()包裹所有db.Query()、db.Exec()调用,避免慢查询阻塞 goroutine - 连接字符串从
os.Getenv("DB_URL_AUTH")等独立环境变量读取,不拼接、不 fallback 到默认值
func NewAuthDB() (*sql.DB, error) { db, err := sql.Open("pgx", os.Getenv("DB_URL_AUTH")) if err != nil { return nil, err } db.SetMaxOpenConns(15) db.SetMaxIdleConns(5) db.SetConnMaxLifetime(30 * time.Minute) if err := db.Ping(); err != nil { return nil, fmt.Errorf("failed to ping auth db: %w", err) } return db, nil }
如何处理跨服务的数据最终一致性?
没有分布式事务,就不要假装有强一致性。golang 微服务中,order-created → inventory-deducted → notification-sent 这类流程,必须接受中间态,并用可靠事件驱动补救。
典型错误是写个 for range time.Tick() 去轮询补偿,既浪费资源又难收敛。
- 用
go-micro或grpc-go配合消息队列(如rabbitmq、kafka)发OrderCreatedEvent,由inventory-service消费并执行扣减;失败则重试 + 死信队列 - 本地事务只管本库,比如在
order-service写入orders表后,再往本地outbox表插入一条待发事件记录,用定时任务或pg_logical_slot_get_changes同步到 MQ - 避免在 HTTP handler 里直接调用其他服务完成业务逻辑,那是同步耦合,不是最终一致性
迁移和演进时怎么安全地拆分已有单体数据库?
不能停机导出再切流。真实场景下,得边跑边拆,靠双写 + 校验 + 流量灰度推进。
最容易被忽略的是外键和唯一约束——它们在拆库后失去数据库层保障,必须提前移到应用层或用分布式锁模拟。
- 先在新服务中建立空库,启用双写:所有写
users表的操作,同时写入旧单体库和新auth_db.users(用事务保证本地双写原子性) - 上线校验脚本,定期比对
select count(*), MD5(GROUP_CONCAT(id)) FROM users类聚合结果,发现差异立刻告警 - 用
feature flag控制读流量:初期 1% 请求走新库,逐步提升;注意UPDATE必须始终写老库,直到确认新库无延迟 - 删老库表前,确保所有 JOIN 查询已改为 API 调用,且缓存层(如
redis)key 已按新服务边界重构