带自己学paddle (三)

项目一 手写数字识别

上文回顾,目前已经揭晓了CNN、DataLoader、Dataset、SGD、CrossEntropy、Square_error_cost的使用方式,最后还有一点点首尾工作就完成了第一阶段初识框架

1、优化器

SGD
随机梯度下降算法,每次训练少量数据,抽样偏差导致的参数收敛过程中震荡。

opt=paddle.optimizer.SGD(learning_rate=0.01,parameters=model.parameters())

Momentum
给梯度下降的过程加入一定的“惯性”累积,就可以减少更新路径上的震荡,即每次更新的梯度由“历史多次梯度的累积方向”和“当次梯度”加权相加得到。历史多次梯度的累积方向往往是从全局视角更正确的方向,

opt=paddle.optimizer.Momentum(learning_rate=0.01,momentum=0.9,parameters=model.parameters())

AdaGrad
根据不同参数距离最优解的远近,动态调整学习率。学习率逐渐下降,依据各参数变化大小调整学习率。

opt=paddle.optimizer.AdaGrad(learning_rate=0.01,parameters=model.parameters())

Adam
由于动量和自适应学习率两个优化思路是正交的,因此可以将两个思路结合起来,这就是当前广泛应用的算法。

opt=paddle.optimizer.Adam(learning_rate=0.01,parameters=model.parameters())

2 GPU环境配置

一开始我以为很容易,结果呵呵,我搞了几个钟,以下是我记录的报错记录
我目前的配置是cuda10 windows系统
(1) ‘is_compiled_with_rocm’ from ‘paddle.fluid.framework’
(2)ValueError: The device should not be ) if use_gpu else paddle.set_device('cpu') model.train() train_loader=load_data('train') opt=paddle.optimizer.SGD(learning_rate=0.01,parameters=model.parameters()) opt=paddle.optimizer.Momentum(learning_rate=0.01,momentum=0.9,parameters=model.parameters()) opt=paddle.optimizer.Adagrad(learning_rate=0.01,parameters=model.parameters()) opt=paddle.optimizer.Adam(learning_rate=0.01,parameters=model.parameters()) EPOCH_NUM=3 for epoch_id in range(EPOCH_NUM): for batch_id,data in enumerate(train_loader()): images,labels=data images=paddle.to_tensor(images) labels=paddle.to_tensor(labels) predicts=model(images) loss=F.cross_entropy(predicts,labels) avg_loss=paddle.mean(loss) if batch_id %200==0: print("epoch:{} batch :{} loss:{}".format(epoch_id,batch_id,avg_loss.numpy())) avg_loss.backward() opt.step() opt.clear_grad() acc_train_mean=evaluation(model,'train') acc_val_mean=evaluation(model,'valid') print('train_acc: {}, val acc: {}'.format(acc_train_mean, acc_val_mean)) paddle.save(model.state_dict(),'mnist.pdparams') model=MNIST() train(model)

dataset.py

import os
import random
import numpy as np

import gzip
import json

def load_data(mode='train'):
    datafile='./work/mnist.json.gz'
    data=json.load(gzip.open(datafile))
    train_set,val_set,eval_set=data

    IMG_ROWS=28
    IMG_COLS=28
    if mode=='train':
        imgs=train_set[0]
        labels=train_set[1]
    elif mode=='valid':
        imgs=val_set[0]
        labels=val_set[1]
    elif mode=='eval':
        imgs=eval_set[0]
        labels=eval_set[1]

    imgs_length=len(imgs)
    assert len(imgs)==len(labels), "length of train_imgs({}) should be the same as train_labels({})".format(len(imgs),len(labels))
    index_list=list(range(imgs_length))

    BATCH_SIZE=100

    def data_generator():
        if mode=='train':
            random.shuffle(index_list)
        imgs_list=[]
        labels_list=[]
        for i in index_list:
            img=np.reshape(imgs[i],[1,IMG_ROWS,IMG_COLS]).astype('float32')
            label=np.reshape(labels[i],[1]).astype('int64')
            imgs_list.append(img)
            labels_list.append(label)
            if len(imgs_list)==BATCH_SIZE:
                yield np.array(imgs_list),np.array(labels_list)
                imgs_list=[]
                labels_list=[]
        if len(imgs_list)>0:
            yield np.array(imgs_list),np.array(labels_list)
    return data_generator

network.py

import paddle.nn.functional as F
import paddle
from paddle.nn import Conv2D,MaxPool2D,Linear

class MNIST(paddle.nn.Layer):
    def __init__(self):
        super(MNIST, self).__init__()

        self.conv1=Conv2D(in_channels=1,out_channels=20,kernel_size=5,stride=1,padding=2)
        self.max_pool1=MaxPool2D(kernel_size=2,stride=2)
        self.conv2=Conv2D(in_channels=20,out_channels=20,kernel_size=5,stride=1,padding=2)
        self.max_pool2=MaxPool2D(kernel_size=2,stride=2)
        self.fc=Linear(in_features=980,out_features=10)

    def forward(self,inputs):
        x=self.conv1(inputs)
        x=F.relu(x)
        x=self.max_pool1(x)
        x=self.conv2(x)
        x=F.relu(x)
        x=self.max_pool2(x)
        x=paddle.reshape(x,[x.shape[0],-1])
        x=self.fc(x)
        return x

训练效果展示:
带自己学paddle (三)_第1张图片
继续努力。终于不用再对着手写数字了吧哈哈哈哈

你可能感兴趣的:(paddle,paddle,python,计算机视觉,cnn)