栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

Setting OMP

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Setting OMP

Setting OMP_NUM_THREADS environment variable for each process to be 1 in default, to avoid your system being overloaded, please further tune the variable for optimal performance in your application as needed. 

(pytorch1.3-cuda10.2) [huanghaiyang@dgx02 semantic-segmentation-main]$ python -m runx.runx scripts/eval_cityscapes.yml -i
*****************************************
Setting OMP_NUM_THREADS environment variable for each process to be 1 in default, to avoid your system being overloaded, please further tune the variable for optimal performance in your application as needed. 
*****************************************
None
None
NoneNone

None
None
Global Rank: 5 Local Rank: 5
Global Rank: 1 Local Rank: 1
Global Rank: 2 Local Rank: 2
Global Rank: 3 Local Rank: 3
Global Rank: 0 Local Rank: 0
Global Rank: 6 Local Rank: 6
None
Global Rank: 7 Local Rank: 7
None
Global Rank: 4 Local Rank: 4

跑代码的时候出现上述问题,这是由于pytouch分布式训练的问题。别人的代码设置了多个GPU并行,然而你跑的时候只用了一个或者两个,这个参数需要指定

python -m torch.distributed.launch --nproc_per_node=1 --master_port 88888 train.py

--nproc_per_node=1 这个1表示你实际的GPU数量,

--master_port 88888 这个表示端口,一般不用设置,或者随便设置一个数字就行。当出现

runtimeerror: address already in use

这时候加--master_port 12345 就行

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/580618.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号