
本文详解如何使用 pytorch 构建一个极简线性 mlp 模型,通过随机样本训练其精确学习加法函数 $ y = x_1 + x_2 $,并演示模型训练后对全新输入的前向推理、结果验证与参数解读。
本文详解如何使用 pytorch 构建一个极简线性 mlp 模型,通过随机样本训练其精确学习加法函数 $ y = x_1 + x_2 $,并演示模型训练后对全新输入的前向推理、结果验证与参数解读。
在深度学习入门实践中,用神经网络“学习加法”看似简单,却能清晰揭示模型拟合本质、优化行为与泛化能力。本教程以一个仅含单层线性变换(Linear(2, 1))的 MLP 为例,完整展示从数据生成、模型定义、训练收敛到实际推理的全流程。
✅ 正确理解“生成预测”的本质
需明确:神经网络本身不提供 .generate() 方法(该方法属于语言模型或生成式架构,如 gpt、VAE)。对回归任务(如加法),所谓“生成”即标准前向传播(inference)——只需将新输入张量传入模型即可获得预测输出:
y_pred = model(X_new) # X_new shape: (batch_size, 2)
原代码中 model.generate(idx, 50) 是误用,会导致 AttributeError。删除该行,改用直接调用即可。
? 完整可运行示例代码
以下为优化后的完整实现(关键改进:提升学习率至 1e-1 加速收敛,增强日志可读性,增加测试逻辑):
import torch torch.manual_seed(42) # 数据配置 N, D, C = 1000, 2, 1 lr = 1e-1 # 关键:原 1e-2 收敛慢;1e-1 可在 200 轮内达 1e-15 级损失 # 生成训练数据:X ∈ [0,1)², y = x₁ + x₂ X = torch.rand(N, D) y = X.sum(dim=1, keepdim=True) # shape: (N, 1) print(f"X.shape: {X.shape}, y.shape: {y.shape}") print(f"X[:5]:n{X[:5]}") print(f"y[:5]:n{y[:5]}") # 构建模型:单层线性网络 y = w₁x₁ + w₂x₂ + b model = torch.nn.Sequential(torch.nn.Linear(D, C)) criterion = torch.nn.MSELoss() optimizer = torch.optim.Adam(model.parameters(), lr=lr) # 训练循环 print("n? 开始训练...") for epoch in range(500): y_pred = model(X) loss = criterion(y_pred, y) loss.backward() optimizer.step() optimizer.zero_grad() if epoch % 50 == 0: print(f"Epoch {epoch+1:3d} | Loss: {loss.item():.2e}") # ✅ 推理:对全新随机数进行预测 print("n? 测试泛化能力(5 组未见数据):") with torch.no_grad(): # 关闭梯度,节省内存并加速 for i in range(5): X_test = torch.rand(1, D) # 新样本:shape (1, 2) y_pred = model(X_test).item() y_true = X_test.sum().item() print(f"{X_test[0,0]:.2f} + {X_test[0,1]:.2f} = {y_true:.2f} | 预测: {y_pred:.2f}") # ? 解析学得的参数 state_dict = model.state_dict() print(f"n? 模型学得的权重与偏置:") print(f"weights = {state_dict['0.weight'].flatten().tolist()}") print(f"bias = {state_dict['0.bias'].item():.2e}")
⚠️ 关键注意事项与原理说明
-
为什么单层线性模型足够?
加法是线性函数,而 Linear(2,1) 的表达能力恰好覆盖所有形如 $ y = w_1x_1 + w_2x_2 + b $ 的映射。理想解应为 $ w_1=w_2=1, b=0 $。训练结果中权重趋近 [1.0, 1.0]、偏置接近 0(如 2.37e-09),证实模型成功捕获数学本质。 -
学习率至关重要
原 lr=1e-2 下损失下降缓慢;提升至 1e-1 后,损失在 100 轮内降至 1e-5 以下,500 轮达机器精度极限(~1e-20),体现超参对优化效率的显著影响。 -
推理必须使用 torch.no_grad()
在测试阶段禁用梯度计算,既避免显存浪费,也防止意外修改模型参数,是生产级实践规范。 -
泛化性验证要点
测试时务必使用全新采样的数据(而非训练集切片),才能真实反映模型对未知输入的预测能力。本例中 torch.rand(1,2) 每次生成独立样本,确保测试有效性。
✅ 总结
本教程通过加法这一最简非平凡任务,阐明了监督学习的核心范式:
- 数据驱动建模:用合成数据定义输入-输出关系;
- 结构匹配假设:选择与目标函数性质一致的模型容量(此处为线性);
- 优化即求解:梯度下降自动搜索最优参数;
- 推理即应用:前向传播直接给出预测,无需额外生成逻辑。
掌握此流程,是构建更复杂回归/分类模型的坚实起点。