코드를 실행하면 다음처럼 출력됩니다.
--2024-02-18 11:58:36-- https://raw.githubusercontent.com/Cobslab/imageBible/main/image/like_lenna224.png Resolving raw.githubusercontent.com (raw.githubusercontent.com)... 185.199.108.133, 185.199.109.133, 185.199.110.133, ... Connecting to raw.githubusercontent.com (raw.githubusercontent.com)|185.199.108.133|:443... connected. HTTP request sent, awaiting response... 200 OK Length: 30283 (30K) [image/png] Saving to: 'like_lenna.png' like_lenna.png 100%[===================>] 29.57K --.-KB/s in 0s 2024-02-18 11:58:37 (129 MB/s) - 'like_lenna.png' saved [30283/30283]
앞서 살펴본 바와 같이, YOLO 알고리즘이 이미지에서 객체를 감지하는 방법은 매우 효율적이며, 그 결과로 like_lenna.jpg에 객체 위치를 표시했습니다. YOLO의 발전 과정을 이해하는 것은 이 알고리즘이 어떻게 그러한 뛰어난 성능을 달성할 수 있었는지, 그리고 미래의 객체 검출 기술에 어떤 영향을 미칠 수 있는지를 파악하는 데 중요합니다. 다음으로 YOLO v2와 v3의 주요 아키텍처 개선점을 자세히 탐구하며, 이들의 혁신적인 접근 방식이 어떻게 객체 검출의 성능 향상에 기여했는지 알아보겠습니다.