您的位置:首页 > 其它

GPU使用进程的查看和管理

2018-03-29 20:04 211 查看
在跑深度学习的时候出现问题
Check failed: error == cudaSuccess (2 vs. 0)  out of memory
修改batch_size的大小错误依旧存在,最后发现是一些进程在占用GPU所导致。关闭这些进程,错误消失。

查看GPU使用情况

nvidia-smi
显示如下:aicrobo@ubuntu:~$ nvidia-smiThu Mar 29 19:52:48 2018
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 367.48 Driver Version: 367.48 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 106... Off | 0000:01:00.0 On | N/A |
| 32% 41C P2 27W / 120W | 1705MiB / 3012MiB | 0% Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 990 C python 61MiB |
| 0 1257 G /usr/bin/X 155MiB |
| 0 27293 C ../../../build/tools/caffe 1273MiB |
| 0 28878 C ../../build/tools/caffe 105MiB |
| 0 29220 C ../../build/tools/caffe 105MiB |
+-----------------------------------------------------------------------------+可以看出当前有6个进程在占用GPU,运行下面的命令关闭相应的进程:kill -9 PID此处的PID为上图中PID列所对应的序列号。
注意:kill -9命令用来强制退出
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: