使用pytorch怎么保证每次运行的随机数相同

使用pytorch怎么保证每次运行的随机数相同?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

其实在代码的开头添加下面几句话即可:

使用pytorch怎么保证每次运行的随机数相同

#保证训练时获取的随机数都是一样的
init_seed=1
torch.manual_seed(init_seed)
torch.cuda.manual_seed(init_seed)
np.random.seed(init_seed)#用于numpy的随机数

torch.manual_seed(seed)

为了生成随机数设置种子。返回一个torch.Generator对象

参数:

seed (int) – 期望的种子数

torch.cuda.manual_seed(seed)

为当前GPU生成随机数设置种子。如果CUDA不可用,调用该方法也是安全的;在这种情况下,该调用就会被忽略

参数:

seed (int) – 期望的种子数

如果你使用的是多GPU模型,就要调用manual_seed_all(seed).

关于使用pytorch怎么保证每次运行的随机数相同问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注恰卡编程网行业资讯频道了解更多相关知识。

发布于 2021-03-21 22:40:17
收藏
分享
海报
0 条评论
175
上一篇:怎么在Python3中使用socket 下一篇:如何在Python中使用syslog日志
目录

    0 条评论

    本站已关闭游客评论,请登录或者注册后再评论吧~

    忘记密码?

    图形验证码