본문 바로가기

Deep Learning - 논문 리뷰

(8)
[논문 리뷰] YOLOv3 : An Incremental Improvement 이번 Yolo는 논문 형식이 참 독특했습니다. 각 논문의 구성을 따르되 소제목이 일반적이지 않아 신기하게 다가왔습니다. 이번 논문은 짧게 리뷰를 진행해 보겠습니다. 기존 yolov2 모델과의 차이점과 큰 메소드들에 대해서 설명하겠습니다. 성능을 향상시킨 첫번째 기법은 loss의 도메인 변경입니다. yolov2 까지만 해도 feature map 공간에서 물체의 위치를 예측하고 디코딩 과정을 통해 이미지 전체에서 box을 찾았습니다. v3에서는 그렇게 진행하지 않습니다. 입력 이미지에서 box를 직접 회귀 합니다. 값이 커진만큼 L2 loss를 사용한다면 값이 폭주하는 경우가 발생할 수 있으니 L1 loss를 사용합니다. IoU를 기준으로 가장 높은 값을 1로 지정하고, IoU 임계값은 0.5로 사용합니다...
[논문 리뷰] RetinaNet(Focal Loss for Dense Object Detection) RetinaNet은 제가 프로젝트를 하면서 다루었던 모델입니다. 성능, 속도면에서도 좋으며 focal loss라는 개념으로 hard negative한, 객체들이 dense하게 밀집되어 있는 상황에서 좋은 성능을 보인다고 합니다. Abstact detection은 2가지 추세로 발전해 왔습니다. Two-stage detector, One-stage detector로 속도와 정확도 면에서 trade-off 갖습니다. Two-stage는 느리지만 높은 정확도를 가졌고, one-stage는 그 반대입니다. 저자들은 one-stage detector가 정확도가 낮은 이유를 꼬집습니다. Introduction FPN, Faster R-CNN 등 two-stage 모델들이 정확도 면에서 우수한 상황이었습니다. 왜냐하..
[논문 리뷰] YOLO9000 : Better, Faster, Stronger yolo는 계속해서 성장해 나아가고 있습니다. 그 중에서 2번째 yolo에 대한 이야기를 읽어보았습니다. Abstract 저자들은 Object detction의 경우 레이블링 된 데이터 셋이 매우 부족하다고 말하고 있습니다. 특히 class의 갯수가 부족하다고 말하고 있습니다. 따라서 이번 학습에는 detection 데이터 셋만 사용하는게 아니라 classfication 데이터 셋도 포함해서 같이 사용했다고 서술합니다. Better, Faster, Stronger 라고 논문명을 지었는데 이는 성능의 향상, 빠른 속도, 다양한 class를 예측할 수 있는 yolo에 향상된 능력을 말합니다. 다만 두개의 다른 모델을 통해 구분 짓습니다. 성능의 향상과 빠른 속도를 보인 YOLOv2와 다양한 class를 예측..
[논문 리뷰] SSD(Single Shot Multi Box Detection) YOLO 이후 성능과 속도를 다 개선한 모델이 등장하게 됩니다. Single shot Multi Box Detection을 의미하는 SSD입니다. 잘 읽고 정리를 해보겠습니다. Abstract Real-time이 가능한 yolo 모델이 작은 object에 대한 성능을 한계를 해결하기 위한 구현된 모델이라고 말합니다. PASCAL VOC 2007 기준으로 74.3 mAP와 59fps 성능을 보입니다. Introduction 자신들 모델들의 Contribution에 대해서 설명합니다. End-to-end 학습이 가능해졌으며, 저해상동에서도 높은 정확도를 보임 카테고리와 물체의 위치를 예측하기위해서 3x3 convolution layer를 활용 Stage를 구분해서 feature map을 통해 위 작업을 실행..
[논문 리뷰] YOLO(You Only Look Once: Unified, Real-Time Object Detection) Yolo는 학생들에게 사랑받는 모델이라고 할 수 있습니다. 주변에 물체 감지를 활용하는 학생들 대부분이 yolo 모델을 활용합니다. 코드도 잘 대중화 되어 있고 빠른속도를 자랑하기 때문입니다. 이번 시간에는 yolo 모델의 시작을 공부해 보겠습니다. 논문의 제목부터 Real-time임을 강조합니다. "당신은 한 번만 봅니다" 라는 의미는 입력 이미지에 대해서 잘 처리된 하나의 파이프라인을 통해 출력이 나온다는 것을 의미합니다. Abstract 기존의 감지 모델들은 bouding box regression과 calssifier를 분리해서 사용하였습니다. 이 점을 고려해, 저자들은 detection pipeline을 single network로 구성하여 real-time 처리가 가능해졌다고 말합니다. 무려 ..
[논문 리뷰] Faster R-CNN(Towards Real-Time Object Detection with Region Proposal Networks) Detection을 분야에서 R-CNN의 최종 버전이라고 볼 수 있는 Faster R-CNN을 읽었고 리뷰해보겠습니다. R-CNN이 제안된 이후로 R-CNN이 가지는 단점들을 보안하기 위해서 Fast R-CNN이 등장했습니다. R-CNN이 가졌던 모든 region proposals에 대한 무수한 연산이 가져오던 과도환 시간비용을 줄이기 위함이었습니다. Fast R-CNN은 그것을 RoI pooling과 multi task loss로 해결하려고 했습니다. 하지만 실시간 속도의 감지를 달성할 수는 없었습니다. 그래서 제안된 이 점을 보안하기 위해 제안된 모델이 바로 Faster R-CNN입니다. Abstract 물체의 위치를 예측하기 위해서는 region proposals 작업이 꼭 필요하다고 말하고 있습니..
[논문 리뷰] Fast R-CNN(Fast Region-based ConvolutionalNetwork method) 지난번에 리뷰 했던 R-CNN의 단점을 보안한 Fast R-CNN을 리뷰 해보겠습니다. 논문명 또한 단순히 Fast R-CNN 입니다. Fast Region-based ConvolutionalNetwork method 이라는 뜻으로 기존의 R-CNN의 단점이 속도 부분에서의 단점을 고려한 모델을 제안합니다. Abstract 논문 초록에서는 기존의 모델에서 region proposal 부분을 효율적으로 재설계 했다는 점과 간략한 결과에 대해 설명합니다. R-CNN 보다 학습 속도, 정확도 성능을 향상 시켰다 --> 학습은 9배, 추론은 213배 빠른 속도를 보유함 SPPNet 보다 빠른 모델 --> 학습 3배, 추론 10배 빠른 속도를 보유함 SPPNet은 같은해에 나왔던 논문으로 R-CNN보다 좋은 성능..
[논문 리뷰] R-CNN(Rich feature hierarchies for accurate object detection and semantic segmentation) 논문 읽기 딥러닝 기술을 활용한 Object Detection의 기초 지식이라고 볼 수 있는 R-CNN 논문을 읽고 리뷰하겠습니다! 논문의 제목은 Rich feature hierarchies for accurate object detection and semantic segmentation 입니다. 제목 그대로 풍부한 특징들을 통해서 정확한 물체 감지를 진행했다는 내용입니다. 리뷰는 논문에 구성에 따라서 작성하겠습니다! Abstract 이 논문에서는 현 상황과 자신들이 얻어낸 결과 및 모델의 특징을 설명합니다. 먼저, 물체 감지 데이터셋에서 유명한 PASCAL VOC 기준 Object detection의 가장 좋은 성능을 보이는 것은 High-level Context를 통한 복잡한 앙상블이였다고 말합니다. 이 당시..