라마가 공개되자마자 미국 스탠퍼드대학교 연구원들은 라마를 추가 학습시켜 챗GPT와 같은 알파카(Alpaca)를 만들었습니다. 물론 이 모델도 오픈 소스로 공개했습니다. 동물 이름인 라마와 비슷하게 알파카라고 지은 것이 재미있지 않나요?

그림 1-16 스탠퍼드대학교의 알파카
LLM 생태계는 전 세계의 누구나 LLM을 사용할 수 있도록 공개함으로써 빠르게 발전하고 있습니다. 실제로 이렇게 만들어진 AI 모델들이 보여주는 성능은 놀랍습니다. 아주 적은 자원을 가지고 빠른 속도로 챗GPT의 성능을 따라잡고 있기 때문입니다.
그림 1-17은 메타의 라마를 추가 학습시켜 만든 새 AI 모델인 비쿠나(Vicuna)의 성능을 보여주는 그래프입니다(비쿠나도 동물 이름으로 낙타과의 일종입니다). 그래프를 보면 비쿠나가 챗GPT 성능의 92%까지 따라잡는 데 3주밖에 걸리지 않은 것을 볼 수 있습니다. 구글에서 만든 LLM인 바드(현 제미나이)가 챗GPT 성능의 93%인 것을 고려하면 비쿠나가 단 3주 만에 바드의 턱밑까지 따라잡은 것입니다.