pandas 如何用 explode() 处理嵌套 dict/list 列展开

10次阅读

explode()不能直接展开嵌套dict,需先转为list;展开后需用pd.json_normalize()等解析为列;混合类型须预处理;性能敏感时应避免链式apply+explode。

pandas 如何用 explode() 处理嵌套 dict/list 列展开

explode() 不能直接展开嵌套 dict,必须先转成 list

如果你的列里存的是 {'a': 1, 'b': 2} 这样的 dict,直接对它调用 explode() 会报错:AttributeError: 'dict' Object has no attribute 'len'。因为 explode() 只认 list、tuple、Series、np.ndarray 这类可迭代且有长度的对象,dict 不在支持范围内。

解决办法是先统一转成 list:比如把每个 dict 包进一个单元素 list,或者用 apply(list)(如果原本是 Series of dict);更常见的是先用 apply(Lambda x: [x] if isinstance(x, dict) else x) 做兜底转换。

  • 错误写法:df.explode('col')(当 col 是 dict 类型时)
  • 安全写法:df.assign(col=df['col'].apply(lambda x: [x] if isinstance(x, dict) else x)).explode('col')
  • 若 dict 需拆成多行字段,后续还得接 pd.json_normalize()pd.DataFrame(df['col'].tolist()).add_prefix('col_')

list of dict 展开后字段不自动扁平化,得手动归一化

explode()[{'a': 1}, {'a': 2}] 这种 list of dict 生效,但它只负责“行数膨胀”,不会把 dict 里的 key 拆成独立列。结果仍是每行一个 dict,类型是 object,没法直接 df['col.a'] 访问。

必须额外做一步结构化解析:

  • 推荐用 pd.json_normalize(df['col']),它能自动处理嵌套、缺失 key、甚至多层 dict
  • 简单场景可用 pd.DataFrame(df['col'].tolist()),但要求所有 dict 的 key 完全一致,否则会出 NaN 或列错位
  • 如果原列名要保留前缀,加 .add_prefix('col_'),避免和原 df 其他列重名

混合类型 list(含 None / NaN / dict / list)要先清洗再 explode

现实数据常出现 [{'a':1}, None, [{'b':2}], {'c':3}] 这种混乱结构。直接 explode() 会失败或静默丢弃 None,而 NaN 更麻烦——pd.isna() 判定为 True,但 explode() 遇到它会跳过整行(不是跳过该单元格)。

稳妥做法是预处理:用 apply() 统一规整为 list,并把空值转为空 list []

  • df['col'] = df['col'].apply(lambda x: [] if pd.isna(x) else (x if isinstance(x, list) else [x]))
  • 再执行 df.explode('col').dropna(subset=['col']) 清除爆炸后仍为空的行
  • 注意:dropna() 必须指定 subset,否则可能误删其他列的 NaN

性能敏感时别在大表上链式 apply + explode

对千万级 DataFrame,df['col'].apply(...).explode(...) 是两轮遍历,且 applypython循环,速度慢。如果原始数据来自 JSON/Parquet,优先考虑在读取阶段就展平。

替代方案:

  • pd.json_normalize(data, record_path='col', meta=['id', 'name']) 直接从嵌套 JSON 构建扁平表
  • 如果已加载为 df,且 col 是 list of dict,用 df.explode('col').pipe(lambda x: pd.concat([x.drop('col', axis=1), pd.json_normalize(x['col'])], axis=1)) 减少中间对象
  • 避免反复 assign + explode,尽量一次性完成结构转换

真正容易被忽略的是:explode 后的索引默认保留原 index(可能重复),如果后续要 merge 或 groupby,记得用 reset_index(drop=True) 重置,否则行为可能不符合直觉。

text=ZqhQzanResources