飞桨深度学习架构师训练营-在学习过程中的几点疑问

@飞桨深度学习架构师训练营-在学习过程中的几点疑问
csdn不能上传自己写的md吗?简单的手敲一遍做个总结。
列举了一些在初次看代码时比较疑惑的地方,以及目前对该问题的理解。

一、眼疾数据集分类的训练过程

1.代码

import os
import random
import paddle
import paddle.fluid as fluid
import numpy as np

DATADIR = '/home/aistudio/work/palm/PALM-Training400/PALM-Training400'
DATADIR2 = '/home/aistudio/work/palm/PALM-Validation400'
CSVFILE = '/home/aistudio/labels.csv'

# 定义训练过程
def train(model):
    with fluid.dygraph.guard():
        print('start training ... ')
        model.train()
        epoch_num = 1
        # 定义优化器
        opt = fluid.optimizer.Momentum(learning_rate=0.001, momentum=0.9, parameter_list=model.parameters())
        # 定义数据读取器,训练数据读取器和验证数据读取器
        train_loader = data_loader(DATADIR, batch_size=10, mode='train')
        valid_loader = valid_data_loader(DATADIR2, CSVFILE)
        for epoch in range(epoch_num):
            for batch_id, data in enumerate(train_loader()):
                x_data, y_data = data
                img = fluid.dygraph.to_variable(x_data)
                label = fluid.dygraph.to_variable(y_data)
                # 运行模型前向计算,得到预测值
                logits = model(img)
                # 进行loss计算
                loss = fluid.layers.sigmoid_cross_entropy_with_logits(logits, label)
                avg_loss = fluid.layers.mean(loss)

                if batch_id % 10 == 0:
                    print("epoch: {}, batch_id: {}, loss is: {}".format(epoch, batch_id, avg_loss.numpy()))
                # 反向传播,更新权重,清除梯度
                avg_loss.backward()
                opt.minimize(avg_loss)
                model.clear_gradients()

            model.eval()
            accuracies = []
            losses = []
            for batch_id, data in enumerate(valid_loader()):
                x_data, y_data = data
                img = fluid.dygraph.to_variable(x_data)
                label = fluid.dygraph.to_variable(y_data)
                # 运行模型前向计算,得到预测值
                logits = model(img)
                # 二分类,sigmoid计算后的结果以0.5为阈值分两个类别
                # 计算sigmoid后的预测概率,进行loss计算
                pred = fluid.layers.sigmoid(logits)
                loss = fluid.layers.sigmoid_cross_entropy_with_logits(logits, label)
                # 计算预测概率小于0.5的类别
                pred2 = pred * (-1.0) + 1.0
                # 得到两个类别的预测概率,并沿第一个维度级联
                pred = fluid.layers.concat([pred2, pred], axis=1)
                print('pred', pred)
                acc = fluid.layers.accuracy(pred, fluid.layers.cast(label, dtype='int64'))
                accuracies.append(acc.numpy())
                losses.append(loss.numpy())
            print("[validation] accuracy/loss: {}/{}".format(np.mean(accuracies), np.mean(losses)))
            model.train()

        # save params of model
        fluid.save_dygraph(model.state_dict(), 'palm')
        # save optimizer state
        fluid.save_dygraph(opt.state_dict(), 'palm')

2.疑问
(1)前向计算的结果logits,传入sigmod之后,得到一个分类概率pred,这个概率是属于正样本的概率,还是属于负样本的概率?如果pred特指正样本,那为什么前向计算的结果,一定是属于正样本的概率呢?
pred归属于哪个样本,取决于它对应的label。假设它的label是0,pred是0.55,说明它有55%的概率属于负样本。也就是说pred在和label联系起来之前并没有特指某个种类。
(2)sigmod和softmax
sigmod和softmax都可用于分类问题。
1)sigmod
sigmod能把输入值转换到0~1之间。

sigmod公式:

y = 1 1 + e − x y=\frac{1}{1+e^{-x}} y=1+ex1
也有的资料说是下面的这个:
y = e − x 1 + e − x y=\frac{e^{-x}}{1+e^{-x}} y=1+exex
sigmod曲线趋势飞桨深度学习架构师训练营-在学习过程中的几点疑问_第1张图片
2)softmax
softmax的输出数据之间存在关联,和为1.
softmax公式在这里插入图片描述

softmax层

飞桨深度学习架构师训练营-在学习过程中的几点疑问_第2张图片
3)二分类问题
在二分类问题上,当得出了其中一种可能的概率p1时,就可以推知另一种可能p2的概率 p 1 = 1 − p 2 p_1=1-p_2 p1=1p2
因此在二分类问题上可以用sigmod代替softmax,二者在数学上是等价的(这里没想明白,这俩数值上也不相等呀,只能理解为,两者都可以算概率,用哪一种都行)。
飞桨深度学习架构师训练营-在学习过程中的几点疑问_第3张图片

还有部分还没消化,以后补充

二、关于学习深度学习模型的几点疑问

1.学习一个新的模型时,比如yolov3这种代码结构比较复杂的模型,是应该深究每一层网络的处理流程(会耗费大量时间),还是只需要弄清楚,每一层网络输出的数据的格式呢?
2.看yolov3的时候,经常会疑惑,这么复杂的网络是怎么想出来的呢?是尝试着去一层一层凑出来的?为什么会需要这么多的卷积层?
3.飞桨的封装做得很好,在搭建网络时,直接调用想要的网络结构即可,不需要自己去编写特定层的网络结构。
作为深度学习的初学者,有必要每一层网络都自己亲手一层一层搭建吗(搭建网络比较耗时)?还是说,把代码当成能验证猜想的工具,重点应该放在理论上,可是,不清楚每一层的具体结构,或者说数据到了这一层会发生什么样的变化,怎么在网络结构上做合理的更改呢?
4.在硕士阶段,周围的人研究深度学习的时候,大致路线有几种:
(1)找一个完善的模型去适应特定的场景;
(2)找一个完善的模型,在网络结构上增删改;
如果效果很好,就算找到创新点,可以发论文了。这真的算创新吗?有点像野猪蒙着眼睛撞树,撞断哪颗算哪颗,直到撞出一条新路,运气好的就不用头破血流。我以为的创新,不是简单的缝缝补补,在前人的基础上做一点微小的修改,而是整个体系上的变更。我知道很难,但是这不才是做研究应该有的样子吗?我的研究路线还没确定,很疑惑,是不是应该先按着周围人的路线去尝试。

你可能感兴趣的:(飞桨深度学习课程,深度学习,神经网络)