随机种子是针对随机方法而言的。
随机方法 常见的随机方法有 生成随机数,以及其他像 随机排序 之类的,后者本质上也是基于生成随机数来实现的。在深度学习中,比较常用的随机方法的应用有:网络的随机初始化,训练集的随机打乱等。
关于python中的随机种子——random_state
举个例子,如果我们简单调用 random.random() 来生成随机数,那么每一次生成的数都是随机的。但是,当我们预先使用 random.seed(x) 设定好随机种子,基于这个种子来执行随机算法,这个时候我们得到的随机数序列是相同的【实际上,所有的随机算法都是需要提供随机种子的,如果我们没有手动进行显式设置,系统则会根据时间来自己选择这个值,此时每次生成的随机数因时间差异而不同】。
① 随机种子的取值范围?
可以是任意数字,如10,1000
② 随机种子的作用范围
np.random.seed(0)
print(np.random.rand(3))
print(np.random.rand(3))
输出:
[0.5488135 0.71518937 0.60276338]
[0.54488318 0.4236548 0.64589411]
程序再次运行会输出同一组随机数:
[0.5488135 0.71518937 0.60276338]
[0.54488318 0.4236548 0.64589411]
想要在同一个程序中产生同一组随机数,需要在下一个函数设置一个相同的随机种子
np.random.seed(0)
print(np.random.rand(3))
np.random.seed(0)
print(np.random.rand(3))
输出:
[0.5488135 0.71518937 0.60276338]
[0.5488135 0.71518937 0.60276338]
思考:
1、使用了随机种子来固定输出,那还能算是随机吗?
2、计算机底层是如何实现生成随机数的?
虽然计算机很擅长做精确计算,但是它们处理随机事件时非常不靠谱。
随机数是一个难题。大多数随机数算法都努力创造一种呈均匀分布且难以预测的数据序列,但是在算法初始化阶段都需要提供随机数“种子”(random seed)。而完全相同的种子每次将产生相同的“随机”数序列,因此 用系统时间作为数序列生成的起点,会让程序运行的时候更具有随机性。
基于随机种子来实现代码中随机方法,能够保证多次运行此段代码能够得到完全一样的结果,即能够保证结果的 可复现性,这样 别人跑你的代码的时候也能够很好地复现出你的结果。
参考:Pytorch设置随机数种子,使训练结果可复现。
在使用PyTorch时,如果希望通过设置随机数种子,在gpu或cpu上固定每一次的训练结果,则需要在程序执行的开始处添加以下代码:
def setup_seed(seed):
torch.manual_seed(seed)
torch.cuda.manual_seed_all(seed)
np.random.seed(seed)
random.seed(seed)
torch.backends.cudnn.deterministic = True
# 设置随机数种子
setup_seed(20)
# 预处理数据以及训练模型
# ...
# ...
随机数种子seed确定时,模型的训练结果将始终保持一致。
为什么pytorch使用同一个随机种子但每次训练结果的不同? - Tokamak的回答 - 知乎
Pytorch随机种子