MindSpore怎样使用混合精度

混合精度训练方法是通过混合使用单精度和半精度数据格式来加速深度神经网络训练的过程,同时保持了单精度训练所能达到的网络精度。混合精度训练能够加速计算过程,同时减少内存使用和存取,并使得在特定的硬件上可以训练更大的模型或batch size。

对于FP16的算子,若给定的数据类型是FP32,MindSpore框架的后端会进行降精度处理。用户可以开启INFO日志,并通过搜索关键字“reduce precision”查看降精度处理的算子。

  1. 计算流程

    1. 参数以FP32存储;

    2. 正向计算过程中,遇到FP16算子,需要把算子输入和参数从FP32 cast成FP16进行计算;

    3. 将Loss层设置为FP32进行计算;

    4. 反向计算过程中,首先乘以Loss Scale值,避免反向梯度过小而产生下溢;

    5. FP16参数参与梯度计算,其结果将被cast回FP32;

    6. 除以Loss scale值,还原被放大的梯度;

    7. 判断梯度是否存在溢出,如果溢出则跳过更新,否则优化器以FP32对原始参数进行更新。

    MindSpore混合精度典型的计算流程如下图所示:

    MindSpore怎样使用混合精度_第1张图片

  2. 自动混合精度

    使用自动混合精度,需要调用相应的接口,将待训练网络和优化器作为输入传进去;该接口会将整张网络的算子转换成FP16算子(除BatchNorm算子和Loss涉及到的算子外)。

    具体的实现步骤为:

    1. 引入MindSpore的混合精度的接口amp;

    2. 定义网络:该步骤和普通的网络定义没有区别(无需手动配置某个算子的精度);

    3. 使用amp.build_train_network接口封装网络模型、优化器和损失函数,在该步骤中MindSpore会将有需要的算子自动进行类型转换。

    代码样例如下:

    import numpy as np

    import mindspore.nn as nn

    from mindspore import Tensor, context

    from mindspore.ops import operations as P

    from mindspore.nn import Momentum

    # The interface of Auto_mixed precision

    from mindspore import amp

    context.set_context(mode=context.GRAPH_MODE)

    context.set_context(device_target="Ascend")

    # Define network

    class Net(nn.Cell):

        def __init__(self, input_channel, out_channel):

            super(Net, self).__init__()

            self.dense = nn.Dense(input_channel, out_channel)

            self.relu = P.ReLU()

        def construct(self, x):

            x = self.dense(x)

            x = self.relu(x)

            return x

    # Initialize network

    net = Net(512, 128)

    # Define training data, label

    predict = Tensor(np.ones([64, 512]).astype(np.float32) * 0.01)

    label = Tensor(np.zeros([64, 128]).astype(np.float32))

    # Define Loss and Optimizer

    loss = nn.SoftmaxCrossEntropyWithLogits()

    optimizer = Momentum(params=net.trainable_params(), learning_rate=0.1, momentum=0.9)

    train_network = amp.build_train_network(net, optimizer, loss, level="O3", loss_scale_manager=None)

  3. # Run training

    output = train_network(predict, label)

  4. 手动混合精度

    MindSpore还支持手动混合精度。假定在网络中只有一个Dense Layer要用FP32计算,其他Layer都用FP16计算。混合精度配置以Cell为粒度,Cell默认是FP32类型。

    以下是一个手动混合精度的实现步骤:

    1. 定义网络: 该步骤与自动混合精度中的步骤2类似;

    2. 配置混合精度: 通过net.to_float(mstype.float16),把该Cell及其子Cell中所有的算子都配置成FP16;然后,将模型中的dense算子手动配置成FP32;

    3. 使用TrainOneStepCell封装网络模型和优化器。

    代码样例如下:

    import numpy as np

    import mindspore.nn as nn

    import mindspore.common.dtype as mstype

    from mindspore import Tensor, context

    from mindspore.ops import operations as P

    from mindspore.nn import WithLossCell, TrainOneStepCell

    from mindspore.nn import Momentum

    context.set_context(mode=context.GRAPH_MODE)

    context.set_context(device_target="Ascend")

    # Define network

    class Net(nn.Cell):

        def __init__(self, input_channel, out_channel):

            super(Net, self).__init__()

            self.dense = nn.Dense(input_channel, out_channel)

            self.relu = P.ReLU()

        def construct(self, x):

            x = self.dense(x)

            x = self.relu(x)

            return x

    # Initialize network and set mixing precision

    net = Net(512, 128)

    net.to_float(mstype.float16)

    net.dense.to_float(mstype.float32)

  5. # Define training data, label

    predict = Tensor(np.ones([64, 512]).astype(np.float32) * 0.01)

    label = Tensor(np.zeros([64, 128]).astype(np.float32))

    # Define Loss and Optimizer

    loss = nn.SoftmaxCrossEntropyWithLogits()

    optimizer = Momentum(params=net.trainable_params(), learning_rate=0.1, momentum=0.9)

    net_with_loss = WithLossCell(net, loss)

    train_network = TrainOneStepCell(net_with_loss, optimizer)

    train_network.set_train()

    # Run training

    output = train_network(predict, label)

你可能感兴趣的:(神经网络,深度学习,人工智能)