用多层感知机(MLP)学习两个实数的加法运算:从训练到推理的完整实践

1次阅读

用多层感知机(MLP)学习两个实数的加法运算:从训练到推理的完整实践

本文详解如何使用 pytorch 构建一个极简线性 mlp 模型,通过随机样本训练其精确学习加法函数 $ y = x_1 + x_2 $,并演示模型训练后对全新输入的前向推理、结果验证与参数解读。

本文详解如何使用 pytorch 构建一个极简线性 mlp 模型,通过随机样本训练其精确学习加法函数 $ y = x_1 + x_2 $,并演示模型训练后对全新输入的前向推理、结果验证与参数解读。

在深度学习入门实践中,用神经网络“学习加法”看似简单,却能清晰揭示模型拟合本质、优化行为与泛化能力。本教程以一个仅含单层线性变换(Linear(2, 1))的 MLP 为例,完整展示从数据生成、模型定义、训练收敛到实际推理的全流程。

✅ 正确理解“生成预测”的本质

需明确:神经网络本身不提供 .generate() 方法(该方法属于语言模型或生成式架构,如 gpt、VAE)。对回归任务(如加法),所谓“生成”即标准前向传播(inference)——只需将新输入张量传入模型即可获得预测输出:

y_pred = model(X_new)  # X_new shape: (batch_size, 2)

原代码中 model.generate(idx, 50) 是误用,会导致 AttributeError。删除该行,改用直接调用即可。

? 完整可运行示例代码

以下为优化后的完整实现(关键改进:提升学习率至 1e-1 加速收敛,增强日志可读性,增加测试逻辑):

import torch  torch.manual_seed(42)  # 数据配置 N, D, C = 1000, 2, 1 lr = 1e-1  # 关键:原 1e-2 收敛慢;1e-1 可在 200 轮内达 1e-15 级损失  # 生成训练数据:X ∈ [0,1)², y = x₁ + x₂ X = torch.rand(N, D) y = X.sum(dim=1, keepdim=True)  # shape: (N, 1)  print(f"X.shape: {X.shape}, y.shape: {y.shape}") print(f"X[:5]:n{X[:5]}") print(f"y[:5]:n{y[:5]}")  # 构建模型:单层线性网络 y = w₁x₁ + w₂x₂ + b model = torch.nn.Sequential(torch.nn.Linear(D, C)) criterion = torch.nn.MSELoss() optimizer = torch.optim.Adam(model.parameters(), lr=lr)  # 训练循环 print("n? 开始训练...") for epoch in range(500):     y_pred = model(X)     loss = criterion(y_pred, y)      loss.backward()     optimizer.step()     optimizer.zero_grad()      if epoch % 50 == 0:         print(f"Epoch {epoch+1:3d} | Loss: {loss.item():.2e}")  # ✅ 推理:对全新随机数进行预测 print("n? 测试泛化能力(5 组未见数据):") with torch.no_grad():  # 关闭梯度,节省内存并加速     for i in range(5):         X_test = torch.rand(1, D)  # 新样本:shape (1, 2)         y_pred = model(X_test).item()         y_true = X_test.sum().item()         print(f"{X_test[0,0]:.2f} + {X_test[0,1]:.2f} = {y_true:.2f} | 预测: {y_pred:.2f}")  # ? 解析学得的参数 state_dict = model.state_dict() print(f"n? 模型学得的权重与偏置:") print(f"weights = {state_dict['0.weight'].flatten().tolist()}") print(f"bias    = {state_dict['0.bias'].item():.2e}")

⚠️ 关键注意事项与原理说明

  • 为什么单层线性模型足够?
    加法是线性函数,而 Linear(2,1) 的表达能力恰好覆盖所有形如 $ y = w_1x_1 + w_2x_2 + b $ 的映射。理想解应为 $ w_1=w_2=1, b=0 $。训练结果中权重趋近 [1.0, 1.0]、偏置接近 0(如 2.37e-09),证实模型成功捕获数学本质。

  • 学习率至关重要
    原 lr=1e-2 下损失下降缓慢;提升至 1e-1 后,损失在 100 轮内降至 1e-5 以下,500 轮达机器精度极限(~1e-20),体现超参对优化效率的显著影响。

  • 推理必须使用 torch.no_grad()
    在测试阶段禁用梯度计算,既避免显存浪费,也防止意外修改模型参数,是生产级实践规范。

  • 泛化性验证要点
    测试时务必使用全新采样的数据(而非训练集切片),才能真实反映模型对未知输入的预测能力。本例中 torch.rand(1,2) 每次生成独立样本,确保测试有效性。

✅ 总结

本教程通过加法这一最简非平凡任务,阐明了监督学习的核心范式:

  1. 数据驱动建模:用合成数据定义输入-输出关系;
  2. 结构匹配假设:选择与目标函数性质一致的模型容量(此处为线性);
  3. 优化即求解:梯度下降自动搜索最优参数;
  4. 推理即应用:前向传播直接给出预测,无需额外生成逻辑。

掌握此流程,是构建更复杂回归/分类模型的坚实起点。

text=ZqhQzanResources