如何正确传递文件路径以避免 FileNotFoundError 错误

10次阅读

如何正确传递文件路径以避免 FileNotFoundError 错误

本文详解在使用 `pandas.read_csv()` 读取目录下多个 csv 文件时,因路径拼接错误导致的 `filenotfounderror` 问题,并提供修复后的完整、健壮的批量清洗脚本。

当你调用 pd.read_csv(file) 且 file 仅为文件名(如 “data.csv”)时,pandas 默认会在当前工作目录下查找该文件,而非你指定的输入文件夹。若文件实际位于 ./input/ 下,而你未将路径与文件名正确拼接,就会触发经典的 FileNotFoundError: [errno 2] No such file or Directory 错误。

核心问题在于:必须传入完整的绝对路径或相对于当前工作目录的有效相对路径。推荐使用 os.path.join(input_folder_path, file) 构建安全路径(自动适配不同操作系统的路径分隔符),并确保该路径确实指向一个存在的 .csv 文件。

以下是修复后、逻辑清晰、可直接运行的完整代码:

import os import pandas as pd  def clean_files(input_folder_path, output_folder_path):     """     批量读取、清洗并保存 CSV 文件:     - 跳过每个文件前5行(如表头/说明行)     - 保存为 cleaned_{原文件名} 到输出目录     """     # 验证输入路径存在且为目录     if not os.path.isdir(input_folder_path):         raise ValueError(f"输入路径不存在或不是目录: {input_folder_path}")     if not os.path.isdir(output_folder_path):         os.makedirs(output_folder_path)  # 自动创建输出目录      # 获取所有 CSV 文件名(不含路径)     csv_files = [f for f in os.listdir(input_folder_path) if f.lower().endswith('.csv')]      if not csv_files:         print("警告:输入目录中未找到任何 CSV 文件。")         return []      cleaned_dfs = []  # 存储清洗后的 DataFrame 列表      for filename in csv_files:         file_path = os.path.join(input_folder_path, filename)          # ✅ 关键修复:使用完整 file_path 读取         try:             df = pd.read_csv(file_path)             print(f"✓ 已读取: {filename} ({len(df)} 行)")         except Exception as e:             print(f"✗ 读取失败 {filename}: {e}")             continue          # 清洗:跳过前5行(注意:iloc[5:] 表示从索引5开始,即丢弃第0~4行)         if len(df) > 5:             df_cleaned = df.iloc[5:].reset_index(drop=True)         else:             print(f"⚠ {filename} 行数不足6行,清洗后为空 DataFrame")             df_cleaned = pd.DataFrame()          # 保存清洗后文件         output_file = os.path.join(output_folder_path, f"cleaned_{filename}")         try:             df_cleaned.to_csv(output_file, index=False)             print(f"✓ 已保存: {output_file}")         except Exception as e:             print(f"✗ 保存失败 {output_file}: {e}")             continue          cleaned_dfs.append(df_cleaned)      # 可选:统一显示各 DataFrame 形状(非内容,避免大量输出)     for i, df in enumerate(cleaned_dfs):         print(f"cleaned_df[{i}] 形状: {df.shape}")      return cleaned_dfs  # 使用示例(请根据实际路径调整) if __name__ == '__main__':     input_dir = "./input_csv/"   # ✅ 确保此路径存在且含 CSV 文件     output_dir = "./cleaned_csv/"      result = clean_files(input_dir, output_dir)     print(f"n✅ 总共处理完成 {len(result)} 个 CSV 文件。")

关键修复点与最佳实践总结:

  • ❌ 错误写法:pd.read_csv(file) → 仅传文件名,路径丢失;
  • ✅ 正确写法:pd.read_csv(os.path.join(input_folder_path, file)) → 显式构造完整路径;
  • ?️ 增加路径存在性校验与异常捕获,避免程序崩溃;
  • ? df.iloc[5:] 是切片操作,非“删除前5行”的通用清洗逻辑(如需按条件过滤,请改用 df.drop() 或布尔索引);
  • ? 输出文件名使用 cleaned_{filename} 保留原始扩展名,避免生成 .csv.csv;
  • ⚠️ 原代码中 cleaned_df = df.append(df) 和重复 append 存在严重逻辑错误(覆盖变量、重复追加),已重构为清晰的列表累积模式。

运行前请确认:

  1. input_folder_path 下有真实 .csv 文件;
  2. 你有对应目录的读写权限;
  3. 当前工作目录(os.getcwd())不影响 os.path.join 的正确性(它始终基于给定路径拼接)。

遵循以上规范,即可彻底规避 FileNotFoundError,实现稳定可靠的批量 CSV 处理。

text=ZqhQzanResources