목록ML & DL (42)
https://openaccess.thecvf.com/content_ICCV_2019/papers/Anwar_Real_Image_Denoising_With_Feature_Attention_ICCV_2019_paper.pdf Abstract Deep CNN은 공간적으로 invariant noise를 포함한 이미지에서 성능이 잘 나오지만 real noise에는 제한적이고 multiple stage 모델링이 필요하다. 본 논문에서는 denoising 알고리즘의 practicability를 높이기 위해 RIDNet이라는 single-stage blind real image denoising network를 제안한다. RIDNet은 residual on residual structure 구조를 통해 low-fre..
semantic segmentation을 공부하면서 최종 output feature map에 어떤 activation function을 취해야 하는지 헷갈렸던 내용을 정리합니다. final output feature map의 사이즈는 (C, H, W)이고 아래와 같은 값이 나왔다고 가정하겠습니다. 여기선 dog, cat, person, backgorund 4가지 클래스가 있고 각 채널은 특정 클래스에 대응됩니다. Sigmoid를 취하게 되면 각 element마다 0~1사이의 값으로 출력됩니다. element 단위로 계산되기 때문에 각 픽셀에 대한 독립적인 확률값을 구할 수 있습니다. 하나의 이미지에 하나의 라벨만 존재하는 image classification 문제의 경우 softmax를 취하고 가장 큰 ..
arxiv.org/pdf/1511.00561.pdf Abstract SegNet이라는 pixel-wise segmentation 모델을 제안한다. SegNet은 encoder-decoder로 아키텍처로 encoder는 f.c layer를 제외한 VGG16을 사용하고 decoder는 학습 파라미터가 필요 없는 un-maxpooling을 이용하여 upsampling한다. decoder에서 upsampling 된 feature map은 convolution layer를 통해 dense feature map으로 만든다. SegNet은 memory & accuracy 사이의 trade-off에서 FCN, DeepLab-LargeFOV, DeconvNet 보다 좋은 퍼포먼스를 낸다. 제안하는 SegNet 아키텍처가..
www.cv-foundation.org/openaccess/content_iccv_2015/papers/Noh_Learning_Deconvolution_Network_ICCV_2015_paper.pdf Abstract Deep deconvolution network라는 모델을 제안하여 semantic segmentation 문제를 해결 VGG-16 모델을 가져와서 top layer부분을 튜닝하고 deconvolution, upooling layer를 추가함 이를 통해 픽셀단위의 정교한 prediction이 가능함 객체 구조의 디테일한 특징과 multiple scale까지 핸들링이 가능하며 PASCAL VOC dataset에서 72.5%의 accuracy 달성 Introduction FCN기반 모델들은 다..
ASCAL c segmentation task에서 SOTA를 달성하였다. Abstract convolution layer만 사용하는 FCN(Fully Convolutional Network)을 제안하였고, pixel 단위의 예측을 해야하는 semantic segmentation task에서 SOTA를 달성하였다. AlexNet, VGG, GoogLeNet 구조를 fully convolutional network 형태로 튜닝하고, transfer learning을 이용하였다. 또한, skip connection구조로 low-level feature, high-level feature를 결합하여 보다 정교한 segmentation output을 낼 수 있었다. 제안하는 FCN은 PASCAL VOC segme..
Abstract feed forward 방식으로 레이어를 연결한 DenseNet이라는 새로운 아키텍처를 제안한다. 이전 레이어의 모든 feature map이 다음 레이어로 입력된다. DenseNet은 gradient vanishing, strengthen feature propagation, encourage feature reuse, reduce the number of parameters 측면에서 큰 장점을 갖는다. DenseNet은 less computation으로 STOA를 달성함 Introduction CNN이 깊어지면서 feature information, gradient가 많은 레이어를 지나가면서 vanish되는 문제가 발생함 이러한 문제를 해결하기 위해 ResNet, Highway Netw..
Abstract Deep neural net은 학습시키기 어렵다는 문제가 있다. 그러나 본 논문에서는 residual learning framework을 통해 깊은 신경망도 잘 학습시킬 수 있다. 제안하는 residual network는 optimize가 쉽고 상당히 깊은 depth를 가지는 뉴럴넷에서도 성능을 낼 수 있다. VGG보다 8배 많은 152개의 레이어를 사용했음에도 성능이 좋았다. (레이어 수는 훨씬 많지만 실제 Complexity 측면에선 오히려 ResNet이 VGG보다 lower complexity) Classification뿐만 아니라 detection, localization, segmentation등 다양한 task에서 SOTA를 달성했다. 1. Introduction Deep 뉴럴..
Abstract Inception이라는 새로운 Deep CNN 아키텍처를 제안한다. image classification, detection에서 SOTA를 달성했다. 네트워크 안의 computing resource가 효율적으로 이뤄지도록 개선하였다. Introduction 제안하는 GoogLeNet은 ILSVRC-2014에서 AlexNet보다 12배 적은 파라미터 개수로 훨씬 좋은 성능을 냄 efficient deep neural networks을 제안한다. 여기서 "deep"이란 단어의 의미는 2가지를 갖는다. Inception module이라는 새로운 모듈을 제안한다. 말 그대로 네트워크의 depth 증가를 의미한다. Related Work 최근 CNN을 설계하는데 있어서 레이어를 더 깊게 쌓아 올리..