Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

beginner_source/ddp_series_theory.rst 번역 #896

Merged
merged 6 commits into from
Oct 15, 2024

Conversation

rumjie
Copy link
Contributor

@rumjie rumjie commented Aug 26, 2024

라이선스 동의

변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.

더 자세한 내용은 기여하기 문서를 참고해주세요.

동의하시면 아래 [ ][x]로 만들어주세요.

  • 기여하기 문서를 확인하였으며, 본 PR 내용에 BSD 3항 라이선스가 적용됨에 동의합니다.

관련 이슈 번호

이 Pull Request와 관련있는 이슈 번호를 적어주세요.

이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )

PR 종류

이 PR에 해당되는 종류 앞의 [ ][x]로 변경해주세요.

  • 오탈자를 수정하거나 번역을 개선하는 기여
  • 번역되지 않은 튜토리얼을 번역하는 기여
  • 공식 튜토리얼 내용을 반영하는 기여
  • 위 종류에 포함되지 않는 기여

PR 설명

  • 문서 번역

@rumjie rumjie marked this pull request as ready for review September 3, 2024 15:37
Copy link
Contributor

@jih0-kim jih0-kim left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

한국어로의 번역을 자연스럽게 수행해 주셨습니다. 👍
내용과 관련하여 몇 가지 코멘트를 남겨드리며, 확인해 주시면 좋을 것 같습니다.

* How gradients are synchronized across GPUs
* DDP 의 내부 작동 원리
* ``DistributedSampler`` 이란 무엇인가?
* GPU 간 기울기들이 동기화되는 방법
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

gradient의 경우 TRANSLATION_GUIDE.md 문서에 따라 '변화도' 라고 표현하는 것을 제안 드립니다.

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

반영하였습니다.

Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

기울기로 된 단어가 적용이 안된 부분이 있는것 같습니다. 확인 부탁드립니다.

Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

사소한 부분이지만 아래와 같이 바뀐다면 더 좋을 것 같습니다.
기울기들이 -> 기울기를
번역모범사례KIGO 표준 스타일 가이드에 나오는 것처럼
영어의 복수표현은 가급적 단수표현으로 나타내는 것이 권장되기 때문입니다.

beginner_source/ddp_series_theory.rst Show resolved Hide resolved
Copy link
Contributor

@uddk6215 uddk6215 left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

리뷰를 하기 위해 분산 데이터 병렬처리에 대해 짤막하게나마 공부도 할 수 있었고,
번역도 전반적으로 잘 되어 있는 거 같습니다.

beginner_source/ddp_series_theory.rst Outdated Show resolved Hide resolved
Copy link
Member

@hyoyoung hyoyoung left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

전반적으로 잘되어있으나
사소한 수정 사항 몇가지가 필요합니다.
확인 후 수정 부탁드립니다


What is Distributed Data Parallel (DDP)
분산 데이터 병렬 처리 (DDP) 란 무엇인가?
=======================================

Authors: `Suraj Subramanian <https://github.com/suraj813>`__
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

author도 저자 정도로 번역 부탁드립니다

* How gradients are synchronized across GPUs
* DDP 의 내부 작동 원리
* ``DistributedSampler`` 이란 무엇인가?
* GPU 간 기울기들이 동기화되는 방법
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

기울기로 된 단어가 적용이 안된 부분이 있는것 같습니다. 확인 부탁드립니다.

여러 개의 디바이스에서 여러 데이터 배치들을 동시에 처리하는 방법입니다.
파이토치에서, `분산 샘플러 <https://pytorch.org/docs/stable/data.html#torch.utils.data.distributed.DistributedSampler>`__ 는
각 디바이스가 서로 다른 입력 배치를 받는 것을 보장합니다.
모델은 모든 디바이스에 복제되며, 각 사본은 기울기를 계산하는 동시에 `링 올-리듀스
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

여기도 기울기가 있습니다


* - ``DataParallel``
- ``DistributedDataParallel``
* - 작업 부하가 큼; 전파될 때마다 모델이 복제 및 삭제됨
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

한국어에서는 ;를 잘 안쓰기때문에 문장 2개로 바꾸거나, 1문장으로 합쳐도 좋을 것 같습니다.

여러 개의 디바이스에서 여러 데이터 배치들을 동시에 처리하는 방법입니다.
파이토치에서, `분산 샘플러 <https://pytorch.org/docs/stable/data.html#torch.utils.data.distributed.DistributedSampler>`__ 는
각 디바이스가 서로 다른 입력 배치를 받는 것을 보장합니다.
모델은 모든 디바이스에 복제되며, 각 사본은 기울기를 계산하는 동시에 `링 올-리듀스
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

링 올-리듀스는 잘 쓰이지 않는 표현이기때문에 영어로 병기하거나
아니면 영어 그 자체로 쓰시는 게 더 가독성에 좋을 듯합니다

여러 개의 디바이스에서 여러 데이터 배치들을 동시에 처리하는 방법입니다.
파이토치에서, `분산 샘플러 <https://pytorch.org/docs/stable/data.html#torch.utils.data.distributed.DistributedSampler>`__ 는
각 디바이스가 서로 다른 입력 배치를 받는 것을 보장합니다.
모델은 모든 디바이스에 복제되며, 각 사본은 기울기를 계산하는 동시에 `링 올-리듀스
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

아래와 같은 표현을 제안합니다.
링-올 리듀스 알고리즘 -> Ring-All-Reduce 알고리즘

@jason9865
Copy link
Contributor

안녕하세요.
번역하시느라 고생 많으셨습니다.
몇 가지 코멘트를 달아놓았으니, 참고바랍니다.

@rumjie
Copy link
Contributor Author

rumjie commented Oct 2, 2024

주신 코멘트들을 모두 반영한 커밋 push 완료했습니다. 세심한 코멘트 주신 분들께 모두 감사의 말씀 드립니다 🥰

* - 단일 노드 병렬 처리만 가능
- 여러 머신으로 확장 가능
* - 느림, 단일 프로세스에서 멀티 스레딩을 사용하기 때문에 Global Interpreter Lock (GIL) 충돌이 발생
- 빠름, 멀티 프로세싱을 사용하기 때문에 GIL 충돌 없음
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

ascii로된 table이 list-table형식으로 바꿔두셨는데
혹시 뭔가 이유가 있었을까요?
큰 이유가 없다면 원본 문서 형식을 맞춰두는게 차후 개선을 위해서 편리할거 같습니다

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

제가 잘못 작성했을 수도 있었을 것 같은데, 빌드해서 홈페이지 확인했을 때 테이블이 깨지는 것을 발견해서 형식을 바꿔두었습니다!

Copy link
Member

@hyoyoung hyoyoung left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

good

@hyoyoung hyoyoung requested a review from 9bow October 6, 2024 15:39
@hyoyoung hyoyoung merged commit b8d92ec into PyTorchKorea:master Oct 15, 2024
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

6 participants