解决方法:可能是多进程的原因。查看代码,找到超参数部分,修改num_workers=0即可。
这位博主介绍的很详细,传送门
3.dim、keepdimdim (int) – 缩减的维度,dim=0是对0维度上的一个向量求范数(范数定义:每个向量的长度或大小),返回结果数量等于其列的个数,也就是说有多少个0维度的向量, 将得到多少个范数。
keepdim(bool)– 保持输出的维度 。当keepdim=False时,输出比输入少一个维度(就是指定的dim求范数的维度)。
例子在:传送门
都指代超参数,不同代码称呼不一样,因此不是固定的。
opt = parser.parse_args()
args = parser.parse_args() #1.引用超参数 args.5.torch.zeros用法
举例:
>>> torch.zeros(2, 3)
tensor([[ 0., 0., 0.],
[ 0., 0., 0.]])
6.gamma校正
gamma校正包括:归一化、预补偿、反归一化。
这篇把gamma校正原理解释的很完美传送门
我理解的beta是,其获取bn分支偏移量,并且beta分布具有多样性。
beta = branch.bn.bias
如果想了解更多,大家可以去看这篇博客。传送门
8.eps是什么?eps 定义:机器的浮点运算误差限
直接举例:如果我们计算出的数介于这两者之间,系统就会自动把它舍入到离他最近的数。如1+eps3/5≈1+eps;1+eps2/5≈1;1+eps/2≈1;
assert就是一个断言函数。类似与break。
举例:
assert 1==1 # 条件为 true 正常执行 assert 1==2 # 条件为 false 触发异常10.优化器
Momentum优化算法:使用梯度的移动指数加权平均,一般取0.9.
RMSProp优化算法:使用微分平方加权平均数。
Adam优化算法:使用类似于物理中的动量来累积梯度。
具体内容见:传送门
group:获取取得的字符串整体。
groups:深度可分卷积计算。
groups的具体内容见:传送门
" / "表示浮点数除法,返回浮点float结果;
" // “表示整数除法,返回一个不大于” / "计算结果的最大整数int。
reshape(m,-1)即行数固定,列数需要计算,reshape(-1, m) 即列数固定,行数需要计算;
具体举例见:传送门



