분류 전체보기 (52) 썸네일형 리스트형 [YOLO : You Only Look Once: Unified, Real-Time Object Detection] " YOLO : You Only Look Once: Unified, Real-Time Object Detection " - Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi (2015) 본 논문에서는 … object detection을 위한 새로운 접근법 YOLO을 제안하였고, 이를 이미지 전체에 대해 하나의 신경망으로 예측하는 회 귀 문제로 재정의함. 연구 배경 현재의 객체 검출 시스템은 분류기를 검출기로 재정의하여 사용함. 객체를 검출하기 위해 시스템은 객체를 분류하는 것 뿐만 아니라 위치, 크기 정보를 평가해야 함. 기존의 객체 검출 시스템 DPM(Deformable Parts Model)은 슬라이딩 윈도우 방식으로 객체를 검출하는 모델임. R.. [ResNet : Deep Residual Learning for Image Recognition] " ResNet : Deep Residual Learning for Image Recognition " - Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun (2015) 본 연구에서는 … 최적화하기 쉬우며 깊어진 nerual network의 학습을 용이하게 하기 위한 Residual Learning Framework를 적용한 ResNet 모델을 제안함. 연구 배경 각 feature들을 추출하기 위해 layer의 depth도 달라짐. 깊어질수록 vanishing / exploding gradient와 같은 문제가 생겨났고, 이를 normalized initialzation or intermediate normalization으로 해결함. → degradation 문제.. [Faster R-CNN : Towards Real-Time Object Detection with Region Proposal Networks] " Faster R-CNN : Towards Real-Time Object Detection with Region Proposal Networks " - Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun (2015) 본 논문에서는 … RPN과 Fast R-CNN을 통합하여 region proposal 작업을 위한 fine-tuning, 객체 탐지를 위한 fine-tuning을 번갈아가며 훈련하는 방법을 적용한 Faster R-CNN 모델을 제시함. 이는 fully convolutional network로 위치의 객체 점수와 객체 bounds를 동시에 예측하는 RPN(Region Proposal Network)가 전체 이미지의 합성곱 특성을 공유해 region pro.. [XLNet : Generalized Autoregressive Pretraining for Language Understanding] " XLNet : Generalized Autoregressive Pretraining for Language Understanding " - Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, Quoc V.Le (2019) 본 논문에서는 … AR과 AE의 장점을 결합한 기존 AR과 달리 모든 순열에 대해 log-likelihood를 최대화하도록 학습하는 permutation language modeling objective를 사용한 XLNet을 제안함. 연구 배경 Unsupervised Representation Learning : Large-scale의 corpora를 통해 pre-training하고, downstr.. [BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding] " BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding " - Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova (2018) 본 논문에서는 … MLM(Masked language model)을 사용함으로써 단방향 제약을 완화시킨 BERT 모델을 제안함. 연구 배경 down-stram task를 위한 두 가지 전략 feature-based : ELMo, 사전 훈련된 표현들을 추가적 feature로 포함하는 task-specific 구조를 사용함. fine-tuning : OpenAI GPT, 최소한의 task-specific 파라미터를 넣고, 모든 사전 .. [Improving Language Understanding by Generative Pre-Training] " Improving Language Understanding by Generative Pre-Training " - Alec Radford, Karthik Naraismhan, Tim Salimans, Ilya Suskever (2018) 본 논문에서는 … generative pre-training과 discriminative fine-tuning을 통해 task에 대한 지식이 없이 언어를 이해하는 framework를 제시함. unlabeled data가 langauge modeling objective를 사용하여 초기 파라미터들을 학습함. labeled data를 사용하여 이 초기 파라미터들을 주어진 목표 작업에 맞게 조금씩 수정함. → unlabeled data와 labeled data가 같은 영역.. [Attention Is All You Need] " Attention Is All You Need " - Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin (2017) 본 논문에서는 … RNN or CNN을 사용하지 않고 attention에 기반한 sequence transduction model인 Transformer를 제안함. 이는 더 많은 parallelization을 가능케하여 더 높은 성능을 보여줌. 연구 배경 RNN, LSTM, gate RNN은 대표적인 sequence transduction model로 알려져 있음. Recurrent Model은 일반적으로 input과 ou.. [Sequence to Sequence Learning with Neural Network] " Sequence to Sequence Learning with Neural Network " - Ilya Sutskever, Oriol Vinyals, Quoc V. Le (2014) 본 논문에서는 .. sequence 구조 위에서 minimal assumption을 만드는 일반적인 end-to-end 방식의 학습 방법을 제시함. 단어의 순서를 거꾸로 하였을 때 LSTM의 성능이 향상되는 것을 찾아냄. 기계 번역이란 ? 인공 지능을 사용해 사람의 개입 없이 한 언어에서 다른 언어로 텍스트를 자동으로 번역하는 프로세스 (원본 텍스트의 소스 언어 의미 인코딩 → 의미를 타겟 언어로 디코딩) Rule-based MT : 언어 전문가들이 특정 산업이나 주제에 맞는 내장된 언어 규칙과 사전을 개발하고 이를.. 이전 1 ··· 3 4 5 6 7 다음