더북(TheBook)

3.3.3 클라우드에서 딥러닝 작업을 수행했을 때 장단점

 

딥러닝을 위해 사용할 GPU 카드(최신의 고사양 NVIDIA GPU)가 없다면, 클라우드에서 딥러닝 실험을 하는 것이 하드웨어를 추가로 구매하지 않고 시작할 수 있는 간단하고 저렴한 방법입니다. 주피터 노트북을 사용한다면 클라우드에서 실행하는 것과 로컬에서 실행하는 것에 차이가 없습니다. 2017년 중반에 딥러닝을 시작하기 가장 쉬운 클라우드 서비스는 확실히 AWS EC2입니다. 부록 C에서는 EC2 GPU 인스턴스에서 주피터 노트북을 실행하는 단계별 가이드를 제공합니다.

대규모 딥러닝 작업을 수행하는 사용자라면 이런 설정은 장기적으로 또는 여러 주 이상 진행한다고 했을 때도 적합하지 않습니다. EC2 인스턴스는 비쌉니다. 부록 C에서 권장하는 인스턴스 타입(보통 성능을 가진 p2.xlarge 인스턴스)은 2018년 중반 가격으로 시간당 0.9달러입니다.14 반면에 시중에서 구할 수 있는 GPU 카드 가격은 1,000달러에서 1,500달러 사이입니다. GPU 성능은 계속 상승하지만 시간이 지나면 가격은 상당히 안정화됩니다. 심각한 딥러닝 작업을 하려면 하나 이상의 GPU 카드를 장착한 로컬 컴퓨터를 준비해야 합니다.

간단하게 말해서 EC2는 당장 시작하기 좋은 방법입니다. 이 책에 있는 모든 예제를 EC2 GPU 인스턴스에서 수행할 수 있습니다. 하지만 딥러닝 파워 유저가 되려면 자신만의 GPU 카드를 준비하세요.

14 역주 이 가격은 AWS 미국 리전(Region)의 온디맨드(On-demand) 인스턴스 기준입니다. 2018년 중반 현재 시점에 서울 리전의 가격은 시간당 1.465달러입니다. 간단한 실험을 위해서는 더 저렴한 스팟(Spot) 인스턴스를 사용할 수 있습니다. 스팟 인스턴스를 사용하는 방법은 제 블로그(https://bit.ly/2Frcb1x)를 참고하세요. 2017년 후반부터는 최대 8개의 GPU를 제공하는 p3 인스턴스도 추가되었습니다.

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.