파이토치 모델을 돌리다 보면, 모델 크기와 데이터 배치 만큼 그래픽 카드의 메모리를 쓰는 데 그 크기를 정확히 알고 싶을 때가 있다. nvidia-smi 를 써서 눈대중으로 알아볼 수 있지만, torch 를 임포트해서 바이트 단위 사용량을 알 수 있다. 바로 아래 코드를 사용하면 된다.

 

메모리 크기는 byte 단위로 나타내므로, Megabyte 로 표기하려면 1024**2 로 나누면 된다.

 

 

 

참고

1. https://stackoverflow.com/questions/58216000/get-total-amount-of-free-gpu-memory-and-available-using-pytorch

 

Get total amount of free GPU memory and available using pytorch

I'm using google colab free Gpu's for experimentation and wanted to know how much GPU Memory available to play around, torch.cuda.memory_allocated() returns the current GPU memory occupied, but how...

stackoverflow.com

2. https://discuss.pytorch.org/t/how-to-calculate-the-gpu-memory-that-a-model-uses/157486

 

How to calculate the GPU memory that a model uses?

I wanted to reduce the size of Pytorch models since it consumes a lot of GPU memory and I am not gonna train them again. First, I thought I could change them to TensorRT engine. and then I was curious how I can calculate the size of gpu memory that it uses

discuss.pytorch.org

 

Posted by 공돌이pooh
,