但是我搭了两层卷积层却无法训练出来,而且每次10000张正好只有1135张验证正确。
一点点训练出好转的意思都没有,非常奇怪。
net_choice 选择2、3、4的时候,是有卷积层的,3、4是我后来改的,都不行。
后面用的是one-hot,loss函数用的是MSE,用交叉熵也一样,没有任何好转。
请问哪位高手可以告诉我训练不出来的原因。
整体的程序是以下链接
压缩文件,包括训练集和程序
还是得加BN,否则很难掉进洞里,所以看起来像随机。
1.观察loss是否达到稳定收敛的状态,是否还有继续下降的趋势
2.分别在训练集和测试集上测试,观察是否出现过拟合的状态
整体没有呈现出任何任何训练对其有影响的迹象,loss也一样没有收敛,随机状况下分布应该是0.09左右占大头,所以更没有到过拟合(我最后validation都对训练集做了一次)。也就是训练来训练去都是随机状态,于是觉得奇怪,所以请教大家。