더북(TheBook)

10 사실 공식적으로는 클라우드 스토리지를 사용하는 것을 더 권장하는 편입니다. TPU 서비스 제공자 입장에서는 데이터와 TPU가 모두 같은 클라우드 안에 있는 것이 관리에 더 효율적이기 때문입니다.

 

 

12 다음 링크에서 ‘Private Datasets with TPUs’ 항목 참고(https://www.kaggle.com/docs/tpu)

 

13 다음 링크는 허깅 페이스 공식 깃허브 리포지터리에서 제기된 해당 문제와 관련한 이슈입니다.
https://github.com/huggingface/transformers/issues/4444

 

 

 

16 사전 학습 임베딩은 모델을 다운로드해 캐글 데이터셋으로 생성한 후 추가한 것입니다.

 

17 혹시 이해하기 어렵다면 y=x와 y=x2그래프를 그리고, [0, 1]의 범위의 그래프 형태를 확인해보세요.

 

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.