최근 구글과 메타가 비밀스럽게 추진 중이라는 ‘TorchTPU’ 이야기가 왜 나왔는지, 공개된 정보 기준으로 어디까지가 팩트인지부터 정리했습니다.
이미 존재하는 PyTorch/XLA로 TPU를 쓰는 방식과, 사람들이 말하는 “더 네이티브한 PyTorch on TPU”가 정확히 무엇이 다른지도 비교했습니다.
PyTorch 2의 핵심인 torch.compile이 어떤 구조로 돌아가고, 그 중심에 있는 TorchDynamo가 뭘 하는지, TPU 쪽 실행 엔진으로 자주 언급되는 PJRT가 왜 중요한지, 그리고 “연산 커버리지(op coverage)”가 실제 전환 장벽에서 어떤 의미인지 짚었습니다.
결국 이 프로젝트가 겨냥하는 건 성능 자체보다도 “코드 이식 비용”과 “개발자 경험”이라는 관점에서 분석합니다.
그렇다면 CUDA 생태계의 해자가 어디까지 흔들릴 수 있는지, 반대로 왜 쉽게 무너지지 않는지도 현실적으로 따져봅니다.
또 메타 같은 대형 유저가 왜 이런 움직임에 관심을 가질 수밖에 없는지도 비용·협상력·인프라 관점에서 풀어냈습니다.
마지막으로 이게 성공하려면 무엇이 더 필요하고, 시간은 어느 정도 걸릴지 가능한 시나리오로 정리했습니다.
Written by Error
Edited by 이진이
unrealtech2021@gmail.com