PyTorch提高(三)fastai

一、介绍

fastai将训练一个准确的神经网络变得十分简单。fastai库是基于他的创始人Jeremy Howard 等人开发的 Deep Learning 课程深度学习的研究,为计算机视觉、文本、表格数据、时间序列、协同过滤等常见深度学习应用提供单一、一致界面的深度学习库,可以做到开箱即用。这意味着,如果你已经学会用fastai创建实用的计算机视觉(CV)模型,那你就可以用同样的方法创建自然语言处理(NLP)模型,或是其他模型。

fastai 是目前把易用性和功能都做到了极致的深度学习框架,正如Jeremy所说的:如果一个深度学习框架需要写个教程给你,那它的易用性还不够好。Jeremy 说这话,不是为了夸自己,因为他甚至做了个 MOOC 出来。他自己评价说目前 fastai 的易用性依然不算成功。但在我看来它的门槛极低,你可以很轻易用几句话写个图片分类模型出来,人人都能立即上手,你甚至不需要知道深度学习的理论。

这个官方的Github包含了fastai的所有内容
https://github.com/fastai

二、fastai实战

从MNIST入手:

import fastai
from fastai import *
from fastai.vision import *
import torch

path = untar_data(URLs.MNIST_SAMPLE)
#使用fastai内置的MNIST数据集,从fastai服务器下载
#URLs.MNIST_SAMPLE 只提供了3和7 两个分类的数据,这个是用来做演示的,我们正好也做个演示

#使用ImageDataBunch从刚才的目录中将读入数据
data = ImageDataBunch.from_folder(path)

# 使用cnn_learner来创建一个learn,这里模型我们选择resnet18,使用的计量方法是accuracy准确率
learn =create_cnn(data, models.resnet18, metrics=accuracy)

#可以直接使用train_ds来访问数据集里面的数据
img,label = data.train_ds[0]
print(label)
img

#或者我们直接使用show_batch方法,连标签都给我们自动生成好了
data.show_batch(rows=3, figsize=(6,6))

# 使用learn的fit方法就可以进行训练了,训练一遍
learn.fit(1)

经过上面的训练,你一定会很纳闷:

  • 没有告诉模型有几个类别
  • 没有指定任务迁移之后接续的几个层次的数量、大小、激活函数
  • 没有告诉网络损失函数是什么

几乎没有提供任何信息,网络怎么就开始训练了?
因为 fastai 根据你输入的上述“数据”、“模型结构”和“损失度量”信息,自动帮你把这些闲七杂八的事情默默搞定了。

下面再介绍一些训练的高级用法

#从新生成一个数据集
learn2 =create_cnn(data, models.resnet18, metrics=accuracy,callback_fns=ShowGraph)
#这里我们使用fit_one_cycle方法。
#fit_one_cycle使用的是一种周期性学习率,从较小的学习率开始学习,缓慢提高至较高的学习率,然后再慢慢下降,
#周而复始,每个周期的长度略微缩短,在训练的最后部分,允许学习率比之前的最小值降得更低。
#这不仅可以加速训练,还有助于防止模型落入损失平面的陡峭区域,使模型更倾向于寻找更平坦的极小值,从而缓解过拟合现象。
learn2.fit_one_cycle(1)

# 学习率的变更
learn2.recorder.plot_lr()

#损失
learn2.recorder.plot_losses()

# 我们也可以使用lr_find()找到损失仍在明显改善最高学习率
learn2.lr_find()
learn2.recorder.plot()

你可能感兴趣的:(深度学习,pytorch,深度学习,神经网络)