티스토리 뷰

Model Parallel과 Data Parallel로 나눌 수 있다. 

 

Model Parallel

 

Data Parallel

: 데이터를 나눠 GPU에 할당하고, 나온 결과의 평균을 취한다. 

 

PyTorch에서 제공하는 방식은 아래 두가지 이다. 

- DataParallel: 데이터를 분배한 후 평균을 취함

- DistributedDataParallel:  

 

공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2026/03   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
글 보관함