PaddlePaddle深度学习学习笔记(一)

PaddlePaddle深度学习学习笔记(一)

  • 初识飞桨
    • PaddlePaddle组件使用场景 概览
    • 使用飞桨框架构建神经网络模型
    • 飞桨数据集API

初识飞桨

飞桨(PaddlePaddle)是主流深度学习框架中一款由百度出品的完全国产化的产品,与Google TensorFlow、Facebook Pytorch齐名。相比国内其他平台,飞桨是一个功能完整的深度学习平台,也是唯一成熟稳定、具备大规模推广条件的深度学习平台。
Hello PaddlePaddle !

PaddlePaddle组件使用场景 概览

概览图上半部分是从开发、训练到部署的全流程工具,下半部分是预训练模型、各领域的开发套件和模型库等模型资源:
PaddlePaddle深度学习学习笔记(一)_第1张图片

使用飞桨框架构建神经网络模型

飞桨各模型代码结构一致,大大降低了我们的编码难度,使用飞桨构建神经网络模型基本都是由数据处理、模型设计、训练配置、训练过程、模型保存这五个步骤组成。
PaddlePaddle深度学习学习笔记(一)_第2张图片

飞桨数据集API

飞桨提供了多个封装好的数据集API,涵盖计算机视觉、自然语言处理、推荐系统等多个领域,帮助读者快速完成深度学习任务。如在手写数字识别任务中,通过 .paddle.dataset.mnist可以直接获取处理好的MNIST训练集、测试集,飞桨API支持如下常见的学术数据集:

  • mnist
  • cifar
  • Conll05
  • imdb
  • imikolov
  • movielens
  • sentiment
  • uci_housing
  • wmt14
  • wmt16

如果我们需要使用mnist数据集,可以通过paddle.dataset.mnist.train()函数设置数据读取器,batch_size设置为8,即一个批次有8张图片和8个标签,代码如下所示。
在数据处理前,首先要加载飞桨与手写数字识别模型相关的类库。

#加载飞桨和相关类库
import paddle
import paddle.fluid as fluid
from paddle.fluid.dygraph.nn import Linear
import numpy as np
import os
from PIL import Image
# 如果~/.cache/paddle/dataset/mnist/目录下没有MNIST数据,API会自动将MINST数据下载到该文件夹下
# 设置数据读取器,读取MNIST数据训练集
trainset = paddle.dataset.mnist.train()
# 包装数据读取器,每次读取的数据数量设置为batch_size=8
train_reader = paddle.batch(trainset, batch_size=8)

paddle.batch函数将MNIST数据集拆分成多个批次。

其他的数据集大家可以参考https://www.paddlepaddle.org.cn/documentation/docs/zh/api_cn/data_cn/dataset_cn.html.进行学习。

大家感兴趣可以来参加 百度架构师手把手带你零基础实践深度学习 课程学习,快来一起学习哟!

第一次发博,大家多多担待哦!

你可能感兴趣的:(深度学习,深度学习,神经网络)