在使用Pytorch訓練圖像分類model時,常常明明不應該GPU out of memory,但卻發生了
最近發現其中一項問題發生在我在做test的時候一次使用了10000張圖片輸入到model內進行預測,這似乎會使model中的batchnorm layer分配很多GPU memory
將testing改成一次預測5000張分兩次預測後,就不再out of memroy 了
後來也發現網路上許多code是對test set用dataloader以大約100~200的batch size做預測,應該更不容易造成記憶體不足
文章標籤
全站熱搜