1>torch.cat() 用于矩阵拼接,默认沿着列方向进行拼接

2>torch.unsqueeze() 在矩阵指定索引处扩充一个维度

3>torch.manual_seed() 为CPU设置种子用于生成随机数

4>torch.nn.CrossEntropyLoss(predict,label) 分类问题交叉熵损失函数,注意predict为softmax之前的网络输出

5>torch.nn.Linear() 线性变换层

6>torch.optim.SGD() 梯度下降优化算子

7>torch.nn.Sequential() Sequential容器,模块将按照构造函数中传递的顺序添加到模块中,例如:

model = nn.Sequential(
          nn.Conv2d(1,20,5),
          nn.ReLU(),
          nn.Conv2d(20,64,5),
          nn.ReLU()
        )

8>view() 把张量展开为指定形状

9>torch.stack() 比较抽象的一个函数,用于将多个矩阵在一个新的维度上进行拼接操作,可以结合着以下例子进行理解,将多个二维矩阵在第三个维度上进行拼接的操作。

10>torch.load() 读取恢复先前存储的模型,该函数有多种使用情景,尤其GPU和CPU结合使用时,更为复杂,需要花时间了解的一个函数。

11>transforms.Compose() 我们可以简单的理解为数据预处理器,可以将多个变换操作联合在一起。

12>softmax() 不需要多说,但是里面的参数需要注意。

13>squeeze() 显而易见,与unsqueeze()起相反的作用。