Pytorch随机种子设置及原理

深度学习网络模型中初始的权值参数通常都是初始化成随机数,而使用梯度下降法最终得到的局部最优解对于初始位置点的选择很敏感,下面介绍Pytorch中随机种子的设置及其原理。

1. Pytorch随机种子设置

在同一开发环境中,随机数种子seed确定时,模型的训练结果将始终保持一致。

def setup_seed(seed):
    torch.manual_seed(seed)
    torch.cuda.manual_seed_all(seed)
    np.random.seed(seed)
    random.seed(seed)
    torch.backends.cudnn.deterministic = True
# 设置随机数种子
setup_seed(20)
# 预处理数据以及训练模型
  • 统一随机种子仍然无法复现实验结果的原因

    • 如果设置了nn.LSTMdropout参数,是无法通过随机种子的固定来复现实验结果的;

    • 在数据预处理阶段使用了随机初始化的nn.Embedding,并将其通过持久化方式pickle、cpickle保存了下来。再次使用时,通过pickle.load()读取,即使固定了随机数种子,此时读取到的nn.Embedding()中的weight与当初保存下来的weight是不同的。

    • numpy随机数Dataloader多进程共用时可能会导致随机结果是不同的

  • 其他配置具体操作解读

    • CuDnn

      • cuDnn中对卷积操作进行了优化,牺牲了精度来换取计算效率。如果需要保证可重复性,可以使用如下设置:
      from torch.backends import cudnn
      cudnn.benchmark = False            # if benchmark=True, deterministic will be False
      cudnn.deterministic = True
      

      不过实际上这个设置对精度影响不大,仅仅是小数点后几位的差别。所以如果不是对精度要求极高,其实不太建议修改,因为会使计算效率降低。

    • Pytorch

      seed = 0
      torch.manual_seed(seed)            # 为CPU设置随机种子
      torch.cuda.manual_seed(seed)      # 为当前GPU设置随机种子
      torch.cuda.manual_seed_all(seed)  # 为所有GPU设置随机种子
      
    • Python & Numpy

      如果读取数据的过程采用了随机预处理(如RandomCrop、RandomHorizontalFlip等),那么对Python、Numpy的随机数生成器也需要设置种子。

      import os
      import random
      import numpy as np
      seed = 0
      random.seed(seed)
      np.random.seed(seed)
      os.environ['PYTHONHASHSEED'] = str(seed) # 为了禁止hash随机化,使得实验可复现。
      
    • Dataloader

      如果Dataloader采用了多线程(num_workers > 1), 那么由于读取数据的顺序不同,最终运行结果也会有差异。也就是说,改变num_workers参数,也会对实验结果产生影响。

      目前暂时没有发现解决这个问题的方法,但是只要固定num_workers数目(线程数)不变,基本上也能够重复实验结果。

      对于不同线程的随机数种子设置,主要通过DataLoaderworker_init_fn参数来实现。默认情况下使用线程ID作为随机数种子。如果需要自己设定,可以参考以下代码:

      GLOBAL_SEED = 1
      
      def set_seed(seed):
          random.seed(seed)
          np.random.seed(seed)
          torch.manual_seed(seed)
          torch.cuda.manual_seed(seed)
          torch.cuda.manual_seed_all(seed)
      GLOBAL_WORKER_ID = None
      def worker_init_fn(worker_id):
          global GLOBAL_WORKER_ID
          GLOBAL_WORKER_ID = worker_id
          set_seed(GLOBAL_SEED + worker_id)
      dataloader = DataLoader(dataset, batch_size=16, shuffle=True, num_workers=2, worker_init_fn=worker_init_fn)
      
      

2. Pytorch随机种子原理

Pytorch的随机种子生成器位于/torch/include/Aten/core/Generator.h文件中,其中包含完整的生成方法说明

/**
* Note [Generator]
* ~~~~~~~~~~~~~~~~
* A Pseudo Random Number Generator (PRNG) is an engine that uses an algorithm to
* generate a seemingly random sequence of numbers, that may be later be used in creating
* a random distribution. Such an engine almost always maintains a state and requires a
* seed to start off the creation of random numbers. Often times, users have
* found it beneficial to be able to explicitly create, retain, and destroy
* PRNG states and also be able to have control over the seed value.
*
* A Generator in ATen gives users the ability to read, write and modify a PRNG engine.
* For instance, it does so by letting users seed a PRNG engine, fork the state of the
* engine, etc.
*
* By default, there is one generator per device, and a device's generator is
* lazily created. A user can use the torch.Generator() api to create their own generator.
*/

Pytorch采用线性同余方法生成随机种子,线性同余方法(LCG)是一种产生伪随机数的方法,下面将具体介绍该方法:
LCG是根据递归公式:RandSeed = (A * RandSeed + B) % M

  • 线性同余法最重要的是定义了三个整数,乘数 A、增量 B和模数 M,其中A, B, M是产生器设定的常数。 LCG的周期最大为 M,但大部分情况都会少于M。要令LCG达到最大周期,应符合以下条件:
    B,M互质; M的所有质因数都能整除A-1; 若M是4的倍数,A-1也是; A,B,N[0]都比M小; A,B是正整数
  • 这个算法的缺点是,在参数确定后,伪随机序列只与RandSeed[0]相关,容易被破解。有一种改进的办法就是每隔N个数就以时钟值对m取模作为新的种子来产生新的序列。还有一种方法是直接将随机数加上时钟值再对m取模。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,776评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,527评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,361评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,430评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,511评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,544评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,561评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,315评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,763评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,070评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,235评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,911评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,554评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,173评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,424评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,106评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,103评论 2 352

推荐阅读更多精彩内容

  • 随机性: 深度学习的一个项目,其中的随机性会非常的大,比如以下因素: 随机生成的模型参数,可能是随机选取的训练样本...
    三方斜阳阅读 574评论 0 0
  • 由于在模型训练的过程中存在大量的随机操作,使得对于同一份代码,重复运行后得到的结果不一致。因此,为了得到可重复的实...
    京漂的小程序媛儿阅读 1,867评论 0 2
  • 原理 在神经网络中,参数默认是进行随机初始化的。不同的初始化参数往往会导致不同的结果。 当得到比较好的结果时我们通...
    几时见得清梦阅读 15,314评论 2 4
  • 姓名:毕晓鹏 学号:19021210824 【嵌牛导读】自己平时积累了一些pytorch的训练trick,分享给大...
    鹏_2857阅读 1,527评论 0 0
  • 姓名:毕晓鹏 学号:19021210824 【嵌牛导读】自己平时积累了一些pytorch的训练trick,分享给大...
    鹏_2857阅读 549评论 0 0