Linux
[Linux] nvidia-smi 메모리 모니터링 저장하는 방법
armmy
2023. 5. 26. 16:12
728x90
아래 코드를 작성하면 csv파일로 log가 축적됩니다.
#!/usr/bin/env bash
nvidia-smi --query-gpu=timestamp,pci.bus_id,utilization.gpu,utilization.memory --format=csv -l 1 -f gpu_log_$(date "+%Y-%m-%d-%T").csv
ctrl + z를 눌러 종료하면 저 코드를 실행한 시간부터 종료한 시간까지의 log가 축적됩니다.
자세한 코드는 아래 블로그 참고하면 될 거 같습니다.
https://github.com/eryl/gpulog
GitHub - eryl/gpulog: Example script for logging and displaying GPU utilization using nvidia-smi
Example script for logging and displaying GPU utilization using nvidia-smi - GitHub - eryl/gpulog: Example script for logging and displaying GPU utilization using nvidia-smi
github.com