bytearray vs bytes 的可变性导致的常见内存拷贝陷阱

10次阅读

bytearray可原地修改且复用内存,bytes不可修改;操作时应预估大小、用extend()拼接、注意传参副作用及转换开销。

bytearray vs bytes 的可变性导致的常见内存拷贝陷阱

修改 bytearray 不会触发新对象分配,bytes 一改就报错

这是最直接的差异:你不能对 bytes 做任何原地修改——哪怕只是改一个字节python 就立刻抛 TypeError: 'bytes' Object does not support item assignment。而 bytearray 允许 ba[0] = 65ba.append(98)del ba[-1] 这类操作,全程复用同一块内存地址。

实操建议:

  • id() 对比验证:id(ba) 在多次修改后不变;id(b)id(b.replace(...)) 一定不同
  • 别用 bytes 接收网络流或文件缓冲区后再“加工”——它强制你每次操作都拷贝整段数据
  • 如果只是读取+解码(如 b'hello'.decode()),bytes 更轻量;但凡要拼接、截断、填充、加校验位,优先选 bytearray

bytearray 拼接时用 extend(),别用 +=+

+= 看似是原地操作,但在 bytearray 上它其实等价于 __iadd__,底层仍可能触发隐式拷贝(尤其当预留空间不足时)。而 extend() 明确走扩容+复制路径,行为更可控。

常见错误现象:

  • 循环中反复 ba += b'x00' → 内存分配次数随长度线性增长,性能暴跌
  • ba = ba + other_ba → 创建全新 bytearray,旧对象被丢弃,GC 压力增大

正确做法:

  • 初始化时预估大小:ba = bytearray(4096),再用 ba[:n] = ... 填充
  • 拼接多个片段用 ba.extend(other),支持 bytesbytearraylist(元素为 0–255 整数)
  • 确认是否真需要拼接:有时用 memoryview(ba) 切片访问,比复制更省

传参时小心“假装可变”的陷阱:函数内 bytearray 修改会反映到调用方

因为 bytearray 是可变对象,传入函数后,你在函数里 ba.append()ba[0] = 1,调用方看到的就是被改过的原对象——不像 bytes 那样天然隔离。

容易踩的坑:

  • 工具函数时没加防御性拷贝:def encrypt_inplace(data): data[:] = ... → 调用者原始数据被意外覆盖
  • 线程/协程共享同一个 bytearray 缓冲区 → 竞态修改导致数据错乱(它不是线程安全的)
  • 误以为 ba.copy() 是深拷贝 —— 实际只是浅拷贝(新对象,但内容独立),这点比 list.copy() 更易混淆

建议:

  • 函数文档明确标注是否修改入参
  • 不确定时,开头加 if not isinstance(data, bytearray): data = bytearray(data)data = data.copy()
  • 并发场景下,用 threading.local() 绑定私有缓冲区,别复用全局 bytearray

bytes 创建 bytearray 的开销不可忽略

看似只是一次转换:ba = bytearray(b),但背后是完整内存拷贝——哪怕 b 有 10MB,这一步就要额外分配 10MB 并逐字节复制。

性能影响明显的情况:

  • 高频小包处理(如 websocket 帧解析),每次收包都 bytearray(recv_bytes) → CPU 和内存带宽成瓶颈
  • bytes 作缓存键(如 cache[b]),又频繁转成 bytearray 修改 → 双重浪费

优化方向:

  • 源头控制:让 I/O 层直接返回 bytearray(如 socket.recv_into(bytearray)
  • 避免无谓转换:能用 memoryview(b) 切片访问的,就不转 bytearray
  • 批量处理时,先收集所有 bytes 片段,再一次性构造大 bytearray,而非逐个转

真正麻烦的不是“能不能改”,而是“谁在什么时候悄悄改了”。bytearray 的可变性像一把没鞘的刀——用得好省资源,握得松就割手。尤其在底层协议解析、二进制打包、零拷贝优化这些地方,多看一眼 id()内存占用曲线,比背十遍文档管用。

text=ZqhQzanResources