이를 통해 작은 모델이 성능을 유지하면서도 계산 비용을 줄이고 최적화된 상태로 작동할 수 있습니다.
▼ 표 3-1 지식 증류 모델
|
모델명 |
명령어(Command) |
기반 모델 |
특징 |
|
DeepSeek-R1-Distill-Qwen-1.5B |
ollama run deepseek-r1:1.5b |
Qwen 1.5B |
가장 작은 경량 모델 |
|
DeepSeek-R1-Distill-Qwen-7B |
ollama run deepseek-r1:7b |
Qwen 7B |
중간 크기의 모델 |
|
DeepSeek-R1-Distill-Llama-8B |
ollama run deepseek-r1:8b |
Llama 8B |
메타의 라마(Llama) 모델 기반 |
|
DeepSeek-R1-Distill-Qwen-14B |
ollama run deepseek-r1:14b |
Qwen 14B |
Qwen 모델 기반, 대형 모델 |
|
DeepSeek-R1-Distill-Qwen-32B |
ollama run deepseek-r1:32b |
Qwen 32B |
매우 큰 모델, 복잡한 추론 가능 |
|
DeepSeek-R1-Distill-Llama-70B |
ollama run deepseek-r1:70b |
Llama 70B |
가장 강력한 모델, 고급 AI 성능 |