pytorch b站练习-5

api太多,就是需要边用 边查。打算在继续看视频之前,跟着b站视频动手敲代码练手。

创建矩阵

可以跟numpy类似操作

  

矩阵大小

基本计算方法:

直接使用x+y 或者torch.add(x,y)

索引

view  改变矩阵 

 注意,有个4*4的矩阵x,z=x.view(-1,8)  -1这里是未知的,相当于未知,计算出:4*4/8=2

与numpy协同

tensor与array相互转换 

 自动求导

 

 

上面对b求偏导=1,注意,不清零梯度会累加

 线性回归的demo:

         这里不是直接生成tensor,从np转换。这里的reshape改变tensor的形状。跟前面的 view类似的作用,只不过view方法只能改变连续的(contiguous)张量。

y=2x+1 构建方程

后面代码量多一些,直接命令行敲代码不太方便,转到pycharm

 线性回归模型:

class LinearRegressionModel(nn.Module):  # torch.nn模块下的Module模块
    def __init__(self, input_dim, output_dim):  # 构造函数
        super(LinearRegressionModel, self).__init__()
        self.linear = nn.Linear(input_dim, output_dim)  # 使用的层

    # 重写前向传播方法,模型从前往后走的过程
    def forward(self, x):
        out = self.linear(x)
        return out

这块老师没有展开讲,大概知道下,先跳过。

指定参数及损失函数

# 训练次数
epochs = 1000
# 定义学习率
learning_rate = 0.01
# 优化器选择随机梯度下降算法
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
# 选择损失函数MSE
criterion = nn.MSELoss()

训练模型:

for epoch in range(epochs):
    epoch += 1
    # 转成tensor格式
    inputs = torch.from_numpy(x_train).to(device)
    labels = torch.from_numpy(y_train).to(device)
    # 每次迭代梯度清零,防止累加
    optimizer.zero_grad()
    # 前向传播
    outputs = model(inputs)
    # 计算损失
    loss = criterion(outputs, labels)
    # 反向传播
    loss.backward()
    # 更新权重参数
    optimizer.step()
    if epoch % 50 == 0:
        print('epoch{},loss{}'.format(epoch, loss.item()))

输出 结果:

模型保存

torch.save(model.state_dict(), 'model.pk1')

GPU版本需要把模型跟数据都传入。我这个没有。没法验证了。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
THE END
分享
二维码
< <上一篇
下一篇>>