8. multi-GPU

2023. 11. 17. 13:27NAVER AI Tech/Pytorch

모델을 나누거나 데이터를 나눠서 병렬처리.

- 한번도 해본적은 없는 것 같다..

 

일부 layer는 GPU:0에서, 일부 layer는 GPU:1로 보내는 방식인데........ 쉽지 않아보인다.

 

데이터를 나눠서 일부는 GPU:0을 사용하고, 일부는 GPU:1을 사용해서 병렬적으로 수행

- DataParallel, DistributedDataParallel 사용.

- DataParallel : GPU 사용 불균형 문제 발생, Batch size 감소(병목 현상 발생) 등 문제점이 존재하긴함.

- DistributedDataParallel : 각 CPU 별 process 생성. -> 개별 GPU 할당

'NAVER AI Tech > Pytorch' 카테고리의 다른 글

10. GPU OOM(Out Of Memory) 해결방법  (0) 2023.11.17
9. Hyper-parameter tuning  (0) 2023.11.17
7. pytorch monitoring tools  (0) 2023.11.17
6. 모델 저장, 불러오기  (0) 2023.11.17
5. pytorch dataset  (0) 2023.11.16