多分类问题-Softmax Classifier分类器

概率分布:属于每一个类别的概率总和为0,且都>=0,n组类别需要n-1个参数就能算出结果

  数据预处理多分类问题-Softmax Classifier分类器_第1张图片

 loss函数多分类问题-Softmax Classifier分类器_第2张图片

 

 

 crossentropyloss()函数 CrossEntropyLoss <==> LogSoftmax + NLLLoss。也就是说使用CrossEntropyLoss最后一层(线性层)是不需要做其他变化的;使用NLLLoss之前,需要对最后一层(线性层)先进行SoftMax处理,再进行log操作。多分类问题-Softmax Classifier分类器_第3张图片

 多分类问题-Softmax Classifier分类器_第4张图片

 nll损失和交叉熵(crossentropyloss)损失

均值和标准差(固定的)

多分类问题-Softmax Classifier分类器_第5张图片

 全连接神经网络要求是矩阵1x28x28->1x784用view函数多分类问题-Softmax Classifier分类器_第6张图片

momentum冲量值设成0.5 

多分类问题-Softmax Classifier分类器_第7张图片

多分类问题-Softmax Classifier分类器_第8张图片

寻找最大值torch.max,dim=1按行寻找;dim=0按列寻找 

 多分类问题-Softmax Classifier分类器_第9张图片

每10轮进行一次test 

 转-->大佬笔记

你可能感兴趣的:(deep,learn,分类,机器学习,算法)