【激活函数总结】Pytorch中的激活函数详解: ReLU、Leaky ReLU、Sigmoid、Tanh 以及 Softmax

《博主简介》

小伙伴们好,我是阿旭。专注于人工智能、AIGC、python、计算机视觉相关分享研究。
感谢小伙伴们点赞、关注!

《------往期经典推荐------》

一、AI应用软件开发实战专栏【链接】

项目名称 项目名称
1.【人脸识别与管理系统开发】 2.【车牌识别与自动收费管理系统开发】
3.【手势识别系统开发】 4.【人脸面部活体检测系统开发】
5.【图片风格快速迁移软件开发】 6.【人脸表表情识别系统】
7.【YOLOv8多目标识别与自动标注软件开发】 8.【基于YOLOv8深度学习的行人跌倒检测系统】
9.【基于YOLOv8深度学习的PCB板缺陷检测系统】 10.【基于YOLOv8深度学习的生活垃圾分类目标检测系统】
11.【基于YOLOv8深度学习的安全帽目标检测系统】 12.【基于YOLOv8深度学习的120种犬类检测与识别系统】
13.【基于YOLOv8深度学习的路面坑洞检测系统】 14.【基于YOLOv8深度学习的火焰烟雾检测系统】
15.【基于YOLOv8深度学习的钢材表面缺陷检测系统】 16.【基于YOLOv8深度学习的舰船目标分类检测系统】
17.【基于YOLOv8深度学习的西红柿成熟度检测系统】 18.【基于YOLOv8深度学习的血细胞检测与计数系统】
19.【基于YOLOv8深度学习的吸烟/抽烟行为检测系统】 20.【基于YOLOv8深度学习的水稻害虫检测与识别系统】
21.【基于YOLOv8深度学习的高精度车辆行人检测与计数系统】 22.【基于YOLOv8深度学习的路面标志线检测与识别系统】
23.【基于YOLOv8深度学习的智能小麦害虫检测识别系统】 24.【基于YOLOv8深度学习的智能玉米害虫检测识别系统】
25.【基于YOLOv8深度学习的200种鸟类智能检测与识别系统】 26.【基于YOLOv8深度学习的45种交通标志智能检测与识别系统】
27.【基于YOLOv8深度学习的人脸面部表情识别系统】 28.【基于YOLOv8深度学习的苹果叶片病害智能诊断系统】
29.【基于YOLOv8深度学习的智能肺炎诊断系统】 30.【基于YOLOv8深度学习的葡萄簇目标检测系统】
31.【基于YOLOv8深度学习的100种中草药智能识别系统】 32.【基于YOLOv8深度学习的102种花卉智能识别系统】
33.【基于YOLOv8深度学习的100种蝴蝶智能识别系统】 34.【基于YOLOv8深度学习的水稻叶片病害智能诊断系统】
35.【基于YOLOv8与ByteTrack的车辆行人多目标检测与追踪系统】 36.【基于YOLOv8深度学习的智能草莓病害检测与分割系统】
37.【基于YOLOv8深度学习的复杂场景下船舶目标检测系统】 38.【基于YOLOv8深度学习的农作物幼苗与杂草检测系统】
39.【基于YOLOv8深度学习的智能道路裂缝检测与分析系统】 40.【基于YOLOv8深度学习的葡萄病害智能诊断与防治系统】
41.【基于YOLOv8深度学习的遥感地理空间物体检测系统】 42.【基于YOLOv8深度学习的无人机视角地面物体检测系统】
43.【基于YOLOv8深度学习的木薯病害智能诊断与防治系统】 44.【基于YOLOv8深度学习的野外火焰烟雾检测系统】
45.【基于YOLOv8深度学习的脑肿瘤智能检测系统】 46.【基于YOLOv8深度学习的玉米叶片病害智能诊断与防治系统】
47.【基于YOLOv8深度学习的橙子病害智能诊断与防治系统】 48.【车辆检测追踪与流量计数系统】
49.【行人检测追踪与双向流量计数系统】 50.【基于YOLOv8深度学习的反光衣检测与预警系统】
51.【危险区域人员闯入检测与报警系统】 52.【高密度人脸智能检测与统计系统】
53.【CT扫描图像肾结石智能检测系统】 54.【水果智能检测系统】
55.【水果质量好坏智能检测系统】 56.【蔬菜目标检测与识别系统】
57.【非机动车驾驶员头盔检测系统】 58.【太阳能电池板检测与分析系统】
59.【工业螺栓螺母检测】 60.【金属焊缝缺陷检测系统】
61.【链条缺陷检测与识别系统】 62.【交通信号灯检测识别】

二、机器学习实战专栏【链接】,已更新31期,欢迎关注,持续更新中~~
三、深度学习【Pytorch】专栏【链接】
四、【Stable Diffusion绘画系列】专栏【链接】
五、YOLOv8改进专栏【链接】持续更新中~~
六、YOLO性能对比专栏【链接】,持续更新中~

《------正文------》

目录

    • 引言
    • 什么是激活函数?
    • Pytorch 激活函数的类型
      • ReLU 激活函数
      • Leaky ReLU 激活函数
      • Sigmoid激活函数
      • Tanh 激活函数
      • Softmax激活函数

引言

在深度学习和神经网络领域,激活函数扮演着至关重要的角色,它们为模型引入了非线性因素,使得网络能够学习和模拟复杂的数据模式。

本文将深入探讨 PyTorch 中的各种激活函数,这些函数是构建高效神经网络的关键组成部分。我们将从激活函数的基本概念出发,逐步介绍 ReLU、Leaky ReLU、Sigmoid、Tanh 以及 Softmax 等常见激活函数的特点和使用方法,并通过 Python 代码示例来演示它们在实际应用中的效果。

跟随本文的脚步,你将更加了解如何选择合适的激活函数来优化你的神经网络模型。

什么是激活函数?

激活函数是 Pytorch 的构建块。在了解激活函数的类型之前,让我们先了解人脑中神经元的工作原理。在人工神经网络中,我们有一个输入层,它是用户以某种格式输入的,一个隐藏层,它执行隐藏计算并识别特征,输出是结果。所以整个结构就像一个神经元相互连接的网络。所以我们有人工神经元,它们被这些激活函数激活。激活函数是一种执行计算以提供可作为下一个神经元输入的输出的函数。理想的激活函数应该使用线性概念处理非线性关系,并且应该是可微的,以减少错误并相应地调整权重。所有激活函数都存在于 torch.nn 库中。

Pytorch 激活函数的类型

让我们看看不同的 Pytorch 激活函数:

  • ReLU 激活函数
  • Leaky ReLU 激活函数
  • Sigmoid 激活函数
  • Tanh 激活函数
  • Softmax 激活函数

ReLU 激活函数

ReLU 代表整流线性激活函数。它是一个非线性函数,从图形上看,ReLU 具有以下变换行为:

【激活函数总结】Pytorch中的激活函数详解: ReLU、Leaky ReLU、Sigmoid、Tanh 以及 Softmax_第1张图片

ReLU 是一种流行的激活函数,因为它是可微分的和非线性的。如果输入为负,其导数将变为零,这会导致神经元“死亡”,学习不会发生。让我们借助 Python 程序来说明 ReLU 的使用。

import torch
import torch.nn as nn

# defining relu
r = nn.ReLU()

# Creating a Tensor with an array
input = torch.Tensor([1, -2, 3, -5])

# Passing the array to relu function
output = r(input)

print(output)

*输出:*

tensor([1., 0., 3., 0.])

Leaky ReLU 激活函数

Leaky ReLU 激活函数或 LReLU 是另一种类似于 ReLU 的激活函数,但解决了神经元“死亡”的问题,从图形上看,Leaky ReLU 具有以下变换行为:

【激活函数总结】Pytorch中的激活函数详解: ReLU、Leaky ReLU、Sigmoid、Tanh 以及 Softmax_第2张图片

此函数非常有用,因为当输入为负时,函数的微分不为零。因此,神经元的学习不会停止。让我们借助 Python 程序来说明 LReLU 的使用。

# code
import torch
import torch.nn as nn

# defining Lrelu and the parameter 0.2 is passed to control the negative slope ; a=0.2
r = nn.LeakyReLU(0.2)

# Creating a Tensor with an array 
input = torch.Tensor([1,-2,3,-5])

output = r(input) 

print(output)xxxxxxxxxx # codeimport torchimport torch.nn as nn# defining Lrelu and the parameter 0.2 is passed to control the negative slope ; a=0.2r = nn.LeakyReLU(0.2)# Creating a Tensor with an array input = torch.Tensor([1,-2,3,-5])output = r(input) print(output)# code import torch import torch.nn as nn # defining Lrelu and the parameter 0.2 is passed to control the negative slope ; a=0.2 r = nn.LeakyReLU(0.2) # Creating a Tensor with an array  input = torch.Tensor([1,-2,3,-5]) output = r(input)  print(output) 

*输出:*

tensor([ 1.0000, -0.4000,  3.0000, -1.0000])

Sigmoid激活函数

Sigmoid 函数是一种非线性可微激活函数。它是一条不通过原点的 S 形曲线。它产生的输出介于 0 和 1 之间。输出值通常被视为概率。它通常用于二元分类。它的计算速度很慢,从图形上看,Sigmoid 具有以下变换行为:

【激活函数总结】Pytorch中的激活函数详解: ReLU、Leaky ReLU、Sigmoid、Tanh 以及 Softmax_第3张图片

Sigmoid 激活函数存在“梯度消失”的问题。梯度消失是一个重大问题,因为大量输入被输入到神经网络,并且隐藏层的数量增加,梯度或导数变得接近于零,从而导致神经网络不准确。

让我们借助 Python 程序说明 Sigmoid 函数的用法。

import torch
import torch.nn as nn

# Calling the sigmoid function
sig = nn.Sigmoid()

# Defining tensor
input = torch.Tensor([1,-2,3,-5]) 

# Applying sigmoid to the tensor
output = sig(input)

print(output) 

*输出:*

tensor([0.7311, 0.1192, 0.9526, 0.0067])

Tanh 激活函数

Tanh 函数是一种非线性可微函数,类似于 S 型函数,但输出值范围从 -1 到 +1。它是一条通过原点的 S 形曲线,从图形上看,Tanh 具有以下变换行为:

【激活函数总结】Pytorch中的激活函数详解: ReLU、Leaky ReLU、Sigmoid、Tanh 以及 Softmax_第4张图片

Tanh 激活函数的问题在于它很慢,并且梯度消失问题仍然存在。让我们借助 Python 程序来说明 Tanh 函数的用法。

import torch
import torch.nn as nn

# Calling the Tanh function
t = nn.Tanh()

# Defining tensor
input = torch.Tensor([1,-2,3,-5]) 

# Applying Tanh to the tensor
output = t(input) 
print(output) 

*输出:*

tensor([0.7311, 0.1192, 0.9526, 0.0067])

Softmax激活函数

softmax 函数与其他激活函数不同,因为它位于最后以规范化输出。我们可以将其他激活函数与 Softmax 结合使用,以概率形式产生输出。它用于多类分类并生成总和为 1 的概率输出。输出范围介于 0 和 1 之间。Softmax 具有以下变换行为:

【激活函数总结】Pytorch中的激活函数详解: ReLU、Leaky ReLU、Sigmoid、Tanh 以及 Softmax_第5张图片

让我们借助 Python 程序来说明:

import torch
import torch.nn as nn

# Calling the Softmax function with 
# dimension = 0 as dimension starts 
# from 0
sm = nn.Softmax(dim=0)  

# Defining tensor
input = torch.Tensor([1,-2,3,-5]) 

# Applying function to the tensor
output = sm(input) 
print(output)

*输出:*

tensor([0.7311, 0.1192, 0.9526, 0.0067])

关注文末名片G-Z-H:【阿旭算法与机器学习】,发送【开源】可获取更多学习资源

【激活函数总结】Pytorch中的激活函数详解: ReLU、Leaky ReLU、Sigmoid、Tanh 以及 Softmax_第6张图片

好了,这篇文章就介绍到这里,喜欢的小伙伴感谢给点个赞和关注,更多精彩内容持续更新~~
关于本篇文章大家有任何建议或意见,欢迎在评论区留言交流!

你可能感兴趣的:(深度学习知识点,pytorch,人工智能,python,激活函数,深度学习)