
本文介绍如何在 pyspark 中构建复合窗口,同时满足“最近 n 行”和“最近 m 天”双重约束,通过 `collect_list` + `Filter` 实现精准的历史结构化聚合。
在实际时序数据分析中,仅依赖固定行数(如 rowsBetween(-2, -1))或纯时间范围(如 rangeBetween 配合 date 列)往往不够灵活——例如业务要求:“对每个记录,收集其前 2 条且日期不超过 10 天的历史记录”。PySpark 原生窗口不支持直接混合 rowsBetween 与时间条件,但可通过两阶段策略优雅解决:先用宽泛行窗口预聚合,再用 filter 表达式按时间动态裁剪。
核心思路如下:
- 构造结构化内容列:使用 Struct(‘id’, ‘date’, ‘value’) 将所需字段打包为嵌套结构,便于后续统一处理;
- 定义宽松行窗口:rowsBetween(-3, -1)(预留冗余行,确保覆盖可能的 2 行+边界情况),配合 orderBy(‘date’) 和 partitionBy(‘id’) 保证逻辑顺序;
- 后置时间过滤:利用 filter(history, x -> x.date >= date – interval 10 days) 动态剔除超期记录(注意:示例中为 interval 2 day 仅为演示,实际应改为 interval 10 days);
- 结果格式化(可选):若需输出为字符串形式(如 (1, 2023-05-01, 200)),可追加 transform + concat 或 UDF,但推荐保持 Array
类型以利下游计算。
✅ 完整可运行代码(已修正为 10 天约束):
from pyspark.sql import SparkSession from pyspark.sql import functions as F from pyspark.sql.window import Window from datetime import datetime spark = SparkSession.builder.appName("window-history").getOrCreate() # 示例数据(注意:date 使用 datetime 类型,确保 interval 计算准确) df = spark.createDataFrame([ (1, datetime(2023, 1, 1), 100), (1, datetime(2023, 5, 1), 200), (1, datetime(2023, 5, 2), 300), (1, datetime(2023, 5, 3), 400), (1, datetime(2023, 5, 4), 500) ], ['id', 'date', 'value']) # 两阶段窗口:先取最多前3行 → 再过滤掉超过10天的记录 result_df = ( df .withColumn('content_struct', F.struct('id', 'date', 'value')) .withColumn( 'history', F.collect_list('content_struct').over( Window.orderBy('date').partitionBy('id').rowsBetween(-3, -1) ) ) .withColumn( 'history', F.expr("filter(history, x -> x.date >= date - interval 10 days)") ) ) result_df.select('id', 'date', 'value', 'history').show(truncate=False)
⚠️ 关键注意事项:
- 时间类型必须为 timestampType:若 date 是字符串,需先用 to_timestamp(‘date’, ‘yyyy-MM-dd’) 转换,否则 interval 计算无效;
- rowsBetween 的负值含义:-3 表示当前行向上数第 3 行(含),-1 表示上一行,因此 (-3,-1) 实际捕获最多 3 行(倒序索引:-3,-2,-1);为严格满足“最多 2 行”,可设为 (-2,-1) 并在 filter 后截断:.withColumn(‘history’, F.slice(‘history’, 1, 2));
- 性能提示:filter 在 collect_list 后执行,属于 Catalyst 优化后的高效操作;但若数据量极大且时间窗口极宽,建议先用 where 预过滤分区数据;
- 空值安全:filter 对空数组返回空数组,无需额外 coalesce。
最终 history 列为 array