티스토리 뷰

Model Parallel과 Data Parallel로 나눌 수 있다. 

 

Model Parallel

 

Data Parallel

: 데이터를 나눠 GPU에 할당하고, 나온 결과의 평균을 취한다. 

 

PyTorch에서 제공하는 방식은 아래 두가지 이다. 

- DataParallel: 데이터를 분배한 후 평균을 취함

- DistributedDataParallel:  

 

공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2025/12   »
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31
글 보관함