您的位置:首页 > 其它

P100服务器使用注意事项

2017-05-10 14:51 155 查看
运行代码前,在命令行输入

nvidia-smi


以查看当前服务器中各GPU的使用情况。会得到类似如下结果(可见此时两块GPU都处于空闲状态):

Wed May 10 14:50:45 2017
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 375.39                 Driver Version: 375.39                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  Tesla P100-PCIE...  Off  | 0000:04:00.0     Off |                    0 |
| N/A   39C    P0    31W / 250W |      0MiB / 16276MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   1  Tesla P100-PCIE...  Off  | 0000:82:00.0     Off |                    0 |
| N/A   37C    P0    31W / 250W |      0MiB / 16276MiB |      3%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID  Type  Process name                               Usage      |
|=============================================================================|
|  No running processes found                                                 |
+-----------------------------------------------------------------------------+


由于tensorflow(以及以tensorflow为后端的keras)默认会占满全部可见显存,但是在使用时默认只使用设备号最小的计算设备,所以需要根据实际情况进行设置,如果GPU_0现在空闲,则在命令行中执行:

export CUDA_VISIBLE_DEVICES=0


若GPU 1空闲,则执行:

export CUDA_VISIBLE_DEVICES=1


然后就可以跑代码了,为了充分利用资源
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  tensorflow 多gpu