Updating conversion, creating readmes
This commit is contained in:
@@ -1,18 +1,15 @@
|
||||
[38;5;12m [39m[38;2;255;187;0m[1m[4mAwesome Deep Vision [0m[38;5;14m[1m[4m![0m[38;2;255;187;0m[1m[4mAwesome[0m[38;5;14m[1m[4m (https://cdn.rawgit.com/sindresorhus/awesome/d7305f38d29fed78fa85652e3a63e154dd8e8829/media/badge.svg)[0m[38;2;255;187;0m[1m[4m (https://github.com/sindresorhus/awesome)[0m
|
||||
[38;5;12m [39m[38;2;255;187;0m[1m[4mAwesome Deep Vision [0m[38;5;14m[1m[4m![0m[38;2;255;187;0m[1m[4mAwesome[0m[38;5;14m[1m[4m (https://cdn.rawgit.com/sindresorhus/awesome/d7305f38d29fed78fa85652e3a63e154dd8e8829/media/badge.svg)[0m[38;2;255;187;0m[1m[4m (https://github.com/sindresorhus/awesome)[0m
|
||||
|
||||
[38;5;12mA[39m[38;5;12m [39m[38;5;12mcurated[39m[38;5;12m [39m[38;5;12mlist[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mlearning[39m[38;5;12m [39m[38;5;12mresources[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mcomputer[39m[38;5;12m [39m[38;5;12mvision,[39m[38;5;12m [39m[38;5;12minspired[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;14m[1mawesome-php[0m[38;5;12m [39m[38;5;12m(https://github.com/ziadoz/awesome-php)[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;14m[1mawesome-computer-vision[0m[38;5;12m [39m
|
||||
[38;5;12m(https://github.com/jbhuang0604/awesome-computer-vision).[39m
|
||||
[38;5;12mA curated list of deep learning resources for computer vision, inspired by [39m[38;5;14m[1mawesome-php[0m[38;5;12m (https://github.com/ziadoz/awesome-php) and [39m[38;5;14m[1mawesome-computer-vision[0m[38;5;12m (https://github.com/jbhuang0604/awesome-computer-vision).[39m
|
||||
|
||||
[38;5;12mMaintainers[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;14m[1mJiwon[0m[38;5;14m[1m [0m[38;5;14m[1mKim[0m[38;5;12m [39m[38;5;12m(https://github.com/kjw0612),[39m[38;5;12m [39m[38;5;14m[1mHeesoo[0m[38;5;14m[1m [0m[38;5;14m[1mMyeong[0m[38;5;12m [39m[38;5;12m(https://github.com/hmyeong),[39m[38;5;12m [39m[38;5;14m[1mMyungsub[0m[38;5;14m[1m [0m[38;5;14m[1mChoi[0m[38;5;12m [39m[38;5;12m(https://github.com/myungsub),[39m[38;5;12m [39m[38;5;14m[1mJung[0m[38;5;14m[1m [0m[38;5;14m[1mKwon[0m[38;5;14m[1m [0m[38;5;14m[1mLee[0m[38;5;12m [39m[38;5;12m(https://github.com/deruci),[39m[38;5;12m [39m[38;5;14m[1mTaeksoo[0m[38;5;14m[1m [0m[38;5;14m[1mKim[0m[38;5;12m [39m
|
||||
[38;5;12m(https://github.com/jazzsaxmafia)[39m
|
||||
[38;5;12mMaintainers - [39m[38;5;14m[1mJiwon Kim[0m[38;5;12m (https://github.com/kjw0612), [39m[38;5;14m[1mHeesoo Myeong[0m[38;5;12m (https://github.com/hmyeong), [39m[38;5;14m[1mMyungsub Choi[0m[38;5;12m (https://github.com/myungsub), [39m[38;5;14m[1mJung Kwon Lee[0m[38;5;12m (https://github.com/deruci), [39m[38;5;14m[1mTaeksoo Kim[0m[38;5;12m (https://github.com/jazzsaxmafia)[39m
|
||||
|
||||
[38;5;12mThe project is not actively maintained. [39m
|
||||
|
||||
[38;2;255;187;0m[4mContributing[0m
|
||||
[38;5;12mPlease feel free to [39m[38;5;14m[1mpull requests[0m[38;5;12m (https://github.com/kjw0612/awesome-deep-vision/pulls) to add papers.[39m
|
||||
|
||||
[38;5;14m[1m![0m[38;5;12mJoin[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mchat[39m[38;5;12m [39m[38;5;12mat[39m[38;5;12m [39m[38;5;12mhttps://gitter.im/kjw0612/awesome-deep-vision[39m[38;5;14m[1m [0m[38;5;14m[1m(https://badges.gitter.im/Join%20Chat.svg)[0m[38;5;12m [39m
|
||||
[38;5;12m(https://gitter.im/kjw0612/awesome-deep-vision?utm_source=badge&utm_medium=badge&utm_campaign=pr-badge&utm_content=badge)[39m
|
||||
[38;5;14m[1m![0m[38;5;12mJoin the chat at https://gitter.im/kjw0612/awesome-deep-vision[39m[38;5;14m[1m (https://badges.gitter.im/Join%20Chat.svg)[0m[38;5;12m (https://gitter.im/kjw0612/awesome-deep-vision?utm_source=badge&utm_medium=badge&utm_campaign=pr-badge&utm_content=badge)[39m
|
||||
|
||||
[38;2;255;187;0m[4mSharing[0m
|
||||
[38;5;12m+ [39m[38;5;14m[1mShare on Twitter[0m[38;5;12m (http://twitter.com/home?status=http://jiwonkim.org/awesome-deep-vision%0ADeep Learning Resources for Computer Vision)[39m
|
||||
@@ -87,8 +84,8 @@
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mKarel Lenc, Andrea Vedaldi, R-CNN minus R, arXiv:1506.06981.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mEnd-to-end people detection in crowded scenes [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/abs/1506.04878)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mRussell Stewart, Mykhaylo Andriluka, End-to-end people detection in crowded scenes, arXiv:1506.04878.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mYou[39m[38;5;12m [39m[38;5;12mOnly[39m[38;5;12m [39m[38;5;12mLook[39m[38;5;12m [39m[38;5;12mOnce:[39m[38;5;12m [39m[38;5;12mUnified,[39m[38;5;12m [39m[38;5;12mReal-Time[39m[38;5;12m [39m[38;5;12mObject[39m[38;5;12m [39m[38;5;12mDetection[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://arxiv.org/abs/1506.02640),[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;12m [39m[38;5;12mVersion[39m[38;5;12m [39m[38;5;12m2[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(https://arxiv.org/abs/1612.08242),[39m[38;5;12m [39m[38;5;12mC[39m[38;5;12m [39m[38;5;12mCode[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(https://github.com/pjreddie/darknet),[39m[38;5;12m [39m[38;5;12mTensorflow[39m[38;5;12m [39m
|
||||
[38;5;12mCode[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(https://github.com/thtrieu/darkflow)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mYou[39m[38;5;12m [39m[38;5;12mOnly[39m[38;5;12m [39m[38;5;12mLook[39m[38;5;12m [39m[38;5;12mOnce:[39m[38;5;12m [39m[38;5;12mUnified,[39m[38;5;12m [39m[38;5;12mReal-Time[39m[38;5;12m [39m[38;5;12mObject[39m[38;5;12m [39m[38;5;12mDetection[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://arxiv.org/abs/1506.02640),[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;12m [39m[38;5;12mVersion[39m[38;5;12m [39m[38;5;12m2[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(https://arxiv.org/abs/1612.08242),[39m[38;5;12m [39m[38;5;12mC[39m[38;5;12m [39m[38;5;12mCode[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(https://github.com/pjreddie/darknet),[39m[38;5;12m [39m[38;5;12mTensorflow[39m[38;5;12m [39m[38;5;12mCode[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(https://github.com/thtrieu/darkflow)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJoseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi, You Only Look Once: Unified, Real-Time Object Detection, arXiv:1506.02640[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJoseph Redmon, Ali Farhadi (Version 2)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mInside-Outside Net [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/abs/1512.04143)[39m
|
||||
@@ -109,13 +106,11 @@
|
||||
|
||||
[38;2;255;187;0m[4mObject Tracking[0m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mSeunghoon Hong, Tackgeun You, Suha Kwak, Bohyung Han, Online Tracking by Learning Discriminative Saliency Map with Convolutional Neural Network, arXiv:1502.06796. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1502.06796)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mHanxi[39m[38;5;12m [39m[38;5;12mLi,[39m[38;5;12m [39m[38;5;12mYi[39m[38;5;12m [39m[38;5;12mLi[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mFatih[39m[38;5;12m [39m[38;5;12mPorikli,[39m[38;5;12m [39m[38;5;12mDeepTrack:[39m[38;5;12m [39m[38;5;12mLearning[39m[38;5;12m [39m[38;5;12mDiscriminative[39m[38;5;12m [39m[38;5;12mFeature[39m[38;5;12m [39m[38;5;12mRepresentations[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mNeural[39m[38;5;12m [39m[38;5;12mNetworks[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m[38;5;12mTracking,[39m[38;5;12m [39m[38;5;12mBMVC,[39m[38;5;12m [39m[38;5;12m2014.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(http://www.bmva.org/bmvc/2014/files/paper028.pdf)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mHanxi Li, Yi Li and Fatih Porikli, DeepTrack: Learning Discriminative Feature Representations by Convolutional Neural Networks for Visual Tracking, BMVC, 2014. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://www.bmva.org/bmvc/2014/files/paper028.pdf)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mN Wang, DY Yeung, Learning a Deep Compact Image Representation for Visual Tracking, NIPS, 2013. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://winsty.net/papers/dlt.pdf)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mChao[39m[38;5;12m [39m[38;5;12mMa,[39m[38;5;12m [39m[38;5;12mJia-Bin[39m[38;5;12m [39m[38;5;12mHuang,[39m[38;5;12m [39m[38;5;12mXiaokang[39m[38;5;12m [39m[38;5;12mYang[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mMing-Hsuan[39m[38;5;12m [39m[38;5;12mYang,[39m[38;5;12m [39m[38;5;12mHierarchical[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mFeatures[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m[38;5;12mTracking,[39m[38;5;12m [39m[38;5;12mICCV[39m[38;5;12m [39m[38;5;12m2015[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m
|
||||
[38;5;14m[1m(http://www.cv-foundation.org/openaccess/content_iccv_2015/papers/Ma_Hierarchical_Convolutional_Features_ICCV_2015_paper.pdf)[0m[38;5;12m [39m[38;5;12mCode[39m[38;5;14m[1m [0m[38;5;14m[1m(https://github.com/jbhuang0604/CF2)[0m[38;5;12m [39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mLijun[39m[38;5;12m [39m[38;5;12mWang,[39m[38;5;12m [39m[38;5;12mWanli[39m[38;5;12m [39m[38;5;12mOuyang,[39m[38;5;12m [39m[38;5;12mXiaogang[39m[38;5;12m [39m[38;5;12mWang,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mHuchuan[39m[38;5;12m [39m[38;5;12mLu,[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m[38;5;12mTracking[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mfully[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mNetworks,[39m[38;5;12m [39m[38;5;12mICCV[39m[38;5;12m [39m[38;5;12m2015[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;14m[1m(http://202.118.75.4/lu/Paper/ICCV2015/iccv15_lijun.pdf)[0m[38;5;12m [39m[38;5;12mCode[39m[38;5;14m[1m [0m
|
||||
[38;5;14m[1m(https://github.com/scott89/FCNT)[0m[38;5;12m [39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mLijun Wang, Wanli Ouyang, Xiaogang Wang, and Huchuan Lu, Visual Tracking with fully Convolutional Networks, ICCV 2015 [39m[38;5;12mPaper[39m[38;5;14m[1m (http://202.118.75.4/lu/Paper/ICCV2015/iccv15_lijun.pdf)[0m[38;5;12m [39m[38;5;12mCode[39m[38;5;14m[1m (https://github.com/scott89/FCNT)[0m[38;5;12m [39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mHyeonseob[39m[38;5;12m [39m[38;5;12mNamand[39m[38;5;12m [39m[38;5;12mBohyung[39m[38;5;12m [39m[38;5;12mHan,[39m[38;5;12m [39m[38;5;12mLearning[39m[38;5;12m [39m[38;5;12mMulti-Domain[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mNeural[39m[38;5;12m [39m[38;5;12mNetworks[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m[38;5;12mTracking,[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;14m[1m(http://arxiv.org/pdf/1510.07945.pdf)[0m[38;5;12m [39m[38;5;12mCode[39m[38;5;14m[1m [0m[38;5;14m[1m(https://github.com/HyeonseobNam/MDNet)[0m[38;5;12m [39m[38;5;12mProject[39m[38;5;12m [39m[38;5;12mPage[39m[38;5;14m[1m [0m
|
||||
[38;5;14m[1m(http://cvlab.postech.ac.kr/research/mdnet/)[0m[38;5;12m [39m
|
||||
|
||||
@@ -126,8 +121,7 @@
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mSven Behnke: Learning Iterative Image Reconstruction. IJCAI, 2001. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://www.ais.uni-bonn.de/behnke/papers/ijcai01.pdf)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mSven[39m[38;5;12m [39m[38;5;12mBehnke:[39m[38;5;12m [39m[38;5;12mLearning[39m[38;5;12m [39m[38;5;12mIterative[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mReconstruction[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mNeural[39m[38;5;12m [39m[38;5;12mAbstraction[39m[38;5;12m [39m[38;5;12mPyramid.[39m[38;5;12m [39m[38;5;12mInternational[39m[38;5;12m [39m[38;5;12mJournal[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mComputational[39m[38;5;12m [39m[38;5;12mIntelligence[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mApplications,[39m[38;5;12m [39m[38;5;12mvol.[39m[38;5;12m [39m[38;5;12m1,[39m[38;5;12m [39m[38;5;12mno.[39m[38;5;12m [39m[38;5;12m4,[39m[38;5;12m [39m[38;5;12mpp.[39m[38;5;12m [39m[38;5;12m427-438,[39m[38;5;12m [39m[38;5;12m2001.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(http://www.ais.uni-bonn.de/behnke/papers/ijcia01.pdf)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mSuper-Resolution[39m[38;5;12m [39m[38;5;12m(SRCNN)[39m[38;5;12m [39m[38;5;12mWeb[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://mmlab.ie.cuhk.edu.hk/projects/SRCNN.html)[39m[38;5;12m [39m[38;5;12mPaper-ECCV14[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://personal.ie.cuhk.edu.hk/~ccloy/files/eccv_2014_deepresolution.pdf)[39m[38;5;12m [39m[38;5;12mPaper-arXiv15[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(http://arxiv.org/pdf/1501.00092.pdf)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mSuper-Resolution (SRCNN) [39m[38;5;12mWeb[39m[38;5;14m[1m [0m[38;5;12m (http://mmlab.ie.cuhk.edu.hk/projects/SRCNN.html) [39m[38;5;12mPaper-ECCV14[39m[38;5;14m[1m [0m[38;5;12m (http://personal.ie.cuhk.edu.hk/~ccloy/files/eccv_2014_deepresolution.pdf) [39m[38;5;12mPaper-arXiv15[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1501.00092.pdf)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mChao Dong, Chen Change Loy, Kaiming He, Xiaoou Tang, Learning a Deep Convolutional Network for Image Super-Resolution, ECCV, 2014.[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mChao Dong, Chen Change Loy, Kaiming He, Xiaoou Tang, Image Super-Resolution Using Deep Convolutional Networks, arXiv:1501.00092.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mVery Deep Super-Resolution[39m
|
||||
@@ -135,22 +129,20 @@
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mDeeply-Recursive Convolutional Network[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJiwon Kim, Jung Kwon Lee, Kyoung Mu Lee, Deeply-Recursive Convolutional Network for Image Super-Resolution, arXiv:1511.04491, 2015. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/abs/1511.04491)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mCasade-Sparse-Coding-Network[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mZhaowen[39m[38;5;12m [39m[38;5;12mWang,[39m[38;5;12m [39m[38;5;12mDing[39m[38;5;12m [39m[38;5;12mLiu,[39m[38;5;12m [39m[38;5;12mWei[39m[38;5;12m [39m[38;5;12mHan,[39m[38;5;12m [39m[38;5;12mJianchao[39m[38;5;12m [39m[38;5;12mYang[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mThomas[39m[38;5;12m [39m[38;5;12mS.[39m[38;5;12m [39m[38;5;12mHuang,[39m[38;5;12m [39m[38;5;12mDeep[39m[38;5;12m [39m[38;5;12mNetworks[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mSuper-Resolution[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mSparse[39m[38;5;12m [39m[38;5;12mPrior.[39m[38;5;12m [39m[38;5;12mICCV,[39m[38;5;12m [39m[38;5;12m2015.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://www.ifp.illinois.edu/~dingliu2/iccv15/iccv15.pdf)[39m[38;5;12m [39m
|
||||
[38;5;12mCode[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://www.ifp.illinois.edu/~dingliu2/iccv15/)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mZhaowen[39m[38;5;12m [39m[38;5;12mWang,[39m[38;5;12m [39m[38;5;12mDing[39m[38;5;12m [39m[38;5;12mLiu,[39m[38;5;12m [39m[38;5;12mWei[39m[38;5;12m [39m[38;5;12mHan,[39m[38;5;12m [39m[38;5;12mJianchao[39m[38;5;12m [39m[38;5;12mYang[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mThomas[39m[38;5;12m [39m[38;5;12mS.[39m[38;5;12m [39m[38;5;12mHuang,[39m[38;5;12m [39m[38;5;12mDeep[39m[38;5;12m [39m[38;5;12mNetworks[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mSuper-Resolution[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mSparse[39m[38;5;12m [39m[38;5;12mPrior.[39m[38;5;12m [39m[38;5;12mICCV,[39m[38;5;12m [39m[38;5;12m2015.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://www.ifp.illinois.edu/~dingliu2/iccv15/iccv15.pdf)[39m[38;5;12m [39m[38;5;12mCode[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(http://www.ifp.illinois.edu/~dingliu2/iccv15/)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mPerceptual Losses for Super-Resolution[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJustin[39m[38;5;12m [39m[38;5;12mJohnson,[39m[38;5;12m [39m[38;5;12mAlexandre[39m[38;5;12m [39m[38;5;12mAlahi,[39m[38;5;12m [39m[38;5;12mLi[39m[38;5;12m [39m[38;5;12mFei-Fei,[39m[38;5;12m [39m[38;5;12mPerceptual[39m[38;5;12m [39m[38;5;12mLosses[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mReal-Time[39m[38;5;12m [39m[38;5;12mStyle[39m[38;5;12m [39m[38;5;12mTransfer[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mSuper-Resolution,[39m[38;5;12m [39m[38;5;12marXiv:1603.08155,[39m[38;5;12m [39m[38;5;12m2016.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://arxiv.org/abs/1603.08155)[39m[38;5;12m [39m[38;5;12mSupplementary[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(http://cs.stanford.edu/people/jcjohns/papers/fast-style/fast-style-supp.pdf)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mSRGAN[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mChristian[39m[38;5;12m [39m[38;5;12mLedig,[39m[38;5;12m [39m[38;5;12mLucas[39m[38;5;12m [39m[38;5;12mTheis,[39m[38;5;12m [39m[38;5;12mFerenc[39m[38;5;12m [39m[38;5;12mHuszar,[39m[38;5;12m [39m[38;5;12mJose[39m[38;5;12m [39m[38;5;12mCaballero,[39m[38;5;12m [39m[38;5;12mAndrew[39m[38;5;12m [39m[38;5;12mCunningham,[39m[38;5;12m [39m[38;5;12mAlejandro[39m[38;5;12m [39m[38;5;12mAcosta,[39m[38;5;12m [39m[38;5;12mAndrew[39m[38;5;12m [39m[38;5;12mAitken,[39m[38;5;12m [39m[38;5;12mAlykhan[39m[38;5;12m [39m[38;5;12mTejani,[39m[38;5;12m [39m[38;5;12mJohannes[39m[38;5;12m [39m[38;5;12mTotz,[39m[38;5;12m [39m[38;5;12mZehan[39m[38;5;12m [39m[38;5;12mWang,[39m[38;5;12m [39m[38;5;12mWenzhe[39m[38;5;12m [39m[38;5;12mShi,[39m[38;5;12m [39m[38;5;12mPhoto-Realistic[39m[38;5;12m [39m[38;5;12mSingle[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m
|
||||
[38;5;12mSuper-Resolution[39m[38;5;12m [39m[38;5;12mUsing[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mGenerative[39m[38;5;12m [39m[38;5;12mAdversarial[39m[38;5;12m [39m[38;5;12mNetwork,[39m[38;5;12m [39m[38;5;12marXiv:1609.04802v3,[39m[38;5;12m [39m[38;5;12m2016.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(https://arxiv.org/pdf/1609.04802v3.pdf)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mChristian[39m[38;5;12m [39m[38;5;12mLedig,[39m[38;5;12m [39m[38;5;12mLucas[39m[38;5;12m [39m[38;5;12mTheis,[39m[38;5;12m [39m[38;5;12mFerenc[39m[38;5;12m [39m[38;5;12mHuszar,[39m[38;5;12m [39m[38;5;12mJose[39m[38;5;12m [39m[38;5;12mCaballero,[39m[38;5;12m [39m[38;5;12mAndrew[39m[38;5;12m [39m[38;5;12mCunningham,[39m[38;5;12m [39m[38;5;12mAlejandro[39m[38;5;12m [39m[38;5;12mAcosta,[39m[38;5;12m [39m[38;5;12mAndrew[39m[38;5;12m [39m[38;5;12mAitken,[39m[38;5;12m [39m[38;5;12mAlykhan[39m[38;5;12m [39m[38;5;12mTejani,[39m[38;5;12m [39m[38;5;12mJohannes[39m[38;5;12m [39m[38;5;12mTotz,[39m[38;5;12m [39m[38;5;12mZehan[39m[38;5;12m [39m[38;5;12mWang,[39m[38;5;12m [39m[38;5;12mWenzhe[39m[38;5;12m [39m[38;5;12mShi,[39m[38;5;12m [39m[38;5;12mPhoto-Realistic[39m[38;5;12m [39m[38;5;12mSingle[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mSuper-Resolution[39m[38;5;12m [39m[38;5;12mUsing[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mGenerative[39m
|
||||
[38;5;12mAdversarial[39m[38;5;12m [39m[38;5;12mNetwork,[39m[38;5;12m [39m[38;5;12marXiv:1609.04802v3,[39m[38;5;12m [39m[38;5;12m2016.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(https://arxiv.org/pdf/1609.04802v3.pdf)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mOthers[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mOsendorfer,[39m[38;5;12m [39m[38;5;12mChristian,[39m[38;5;12m [39m[38;5;12mHubert[39m[38;5;12m [39m[38;5;12mSoyer,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mPatrick[39m[38;5;12m [39m[38;5;12mvan[39m[38;5;12m [39m[38;5;12mder[39m[38;5;12m [39m[38;5;12mSmagt,[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mSuper-Resolution[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mFast[39m[38;5;12m [39m[38;5;12mApproximate[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mSparse[39m[38;5;12m [39m[38;5;12mCoding,[39m[38;5;12m [39m[38;5;12mICONIP,[39m[38;5;12m [39m[38;5;12m2014.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;12m [39m[38;5;12mICONIP-2014[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(http://brml.org/uploads/tx_sibibtex/281.pdf)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mOsendorfer, Christian, Hubert Soyer, and Patrick van der Smagt, Image Super-Resolution with Fast Approximate Convolutional Sparse Coding, ICONIP, 2014. [39m[38;5;12mPaper ICONIP-2014[39m[38;5;14m[1m [0m[38;5;12m (http://brml.org/uploads/tx_sibibtex/281.pdf)[39m
|
||||
|
||||
[38;2;255;187;0m[4mOther Applications[0m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mOptical Flow (FlowNet) [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1504.06852)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mPhilipp[39m[38;5;12m [39m[38;5;12mFischer,[39m[38;5;12m [39m[38;5;12mAlexey[39m[38;5;12m [39m[38;5;12mDosovitskiy,[39m[38;5;12m [39m[38;5;12mEddy[39m[38;5;12m [39m[38;5;12mIlg,[39m[38;5;12m [39m[38;5;12mPhilip[39m[38;5;12m [39m[38;5;12mHäusser,[39m[38;5;12m [39m[38;5;12mCaner[39m[38;5;12m [39m[38;5;12mHazırbaş,[39m[38;5;12m [39m[38;5;12mVladimir[39m[38;5;12m [39m[38;5;12mGolkov,[39m[38;5;12m [39m[38;5;12mPatrick[39m[38;5;12m [39m[38;5;12mvan[39m[38;5;12m [39m[38;5;12mder[39m[38;5;12m [39m[38;5;12mSmagt,[39m[38;5;12m [39m[38;5;12mDaniel[39m[38;5;12m [39m[38;5;12mCremers,[39m[38;5;12m [39m[38;5;12mThomas[39m[38;5;12m [39m[38;5;12mBrox,[39m[38;5;12m [39m[38;5;12mFlowNet:[39m[38;5;12m [39m[38;5;12mLearning[39m[38;5;12m [39m[38;5;12mOptical[39m[38;5;12m [39m[38;5;12mFlow[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mNetworks,[39m
|
||||
[38;5;12marXiv:1504.06852.[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mPhilipp Fischer, Alexey Dosovitskiy, Eddy Ilg, Philip Häusser, Caner Hazırbaş, Vladimir Golkov, Patrick van der Smagt, Daniel Cremers, Thomas Brox, FlowNet: Learning Optical Flow with Convolutional Networks, arXiv:1504.06852.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mCompression Artifacts Reduction [39m[38;5;12mPaper-arXiv15[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1504.06993)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mChao Dong, Yubin Deng, Chen Change Loy, Xiaoou Tang, Compression Artifacts Reduction by a Deep Convolutional Network, arXiv:1504.06993.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mBlur Removal[39m
|
||||
@@ -185,15 +177,13 @@
|
||||
[38;5;12m ![39m[38;5;14m[1mVOC2012_top_rankings[0m[38;5;12m (https://cloud.githubusercontent.com/assets/3803777/18164608/c3678488-7038-11e6-9ec1-74a1542dce13.png)[39m
|
||||
[38;5;12m (from PASCAL VOC2012 [39m[38;5;14m[1mleaderboards[0m[38;5;12m (http://host.robots.ox.ac.uk:8080/leaderboard/displaylb.php?challengeid=11&compid=6))[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mSEC: Seed, Expand and Constrain[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12m [39m[38;5;12mAlexander[39m[38;5;12m [39m[38;5;12mKolesnikov,[39m[38;5;12m [39m[38;5;12mChristoph[39m[38;5;12m [39m[38;5;12mLampert,[39m[38;5;12m [39m[38;5;12mSeed,[39m[38;5;12m [39m[38;5;12mExpand[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mConstrain:[39m[38;5;12m [39m[38;5;12mThree[39m[38;5;12m [39m[38;5;12mPrinciples[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mWeakly-Supervised[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mSegmentation,[39m[38;5;12m [39m[38;5;12mECCV,[39m[38;5;12m [39m[38;5;12m2016.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://pub.ist.ac.at/~akolesnikov/files/ECCV2016/main.pdf)[39m
|
||||
[38;5;12mCode[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(https://github.com/kolesman/SEC)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12m [39m[38;5;12mAlexander[39m[38;5;12m [39m[38;5;12mKolesnikov,[39m[38;5;12m [39m[38;5;12mChristoph[39m[38;5;12m [39m[38;5;12mLampert,[39m[38;5;12m [39m[38;5;12mSeed,[39m[38;5;12m [39m[38;5;12mExpand[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mConstrain:[39m[38;5;12m [39m[38;5;12mThree[39m[38;5;12m [39m[38;5;12mPrinciples[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mWeakly-Supervised[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mSegmentation,[39m[38;5;12m [39m[38;5;12mECCV,[39m[38;5;12m [39m[38;5;12m2016.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://pub.ist.ac.at/~akolesnikov/files/ECCV2016/main.pdf)[39m[38;5;12m [39m[38;5;12mCode[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(https://github.com/kolesman/SEC)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mAdelaide[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mGuosheng[39m[38;5;12m [39m[38;5;12mLin,[39m[38;5;12m [39m[38;5;12mChunhua[39m[38;5;12m [39m[38;5;12mShen,[39m[38;5;12m [39m[38;5;12mIan[39m[38;5;12m [39m[38;5;12mReid,[39m[38;5;12m [39m[38;5;12mAnton[39m[38;5;12m [39m[38;5;12mvan[39m[38;5;12m [39m[38;5;12mdan[39m[38;5;12m [39m[38;5;12mHengel,[39m[38;5;12m [39m[38;5;12mEfficient[39m[38;5;12m [39m[38;5;12mpiecewise[39m[38;5;12m [39m[38;5;12mtraining[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mstructured[39m[38;5;12m [39m[38;5;12mmodels[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12msemantic[39m[38;5;12m [39m[38;5;12msegmentation,[39m[38;5;12m [39m[38;5;12marXiv:1504.01013.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://arxiv.org/pdf/1504.01013)[39m[38;5;12m [39m[38;5;12m(1st[39m[38;5;12m [39m
|
||||
[38;5;12mranked[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mVOC2012)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mGuosheng Lin, Chunhua Shen, Ian Reid, Anton van dan Hengel, Efficient piecewise training of deep structured models for semantic segmentation, arXiv:1504.01013. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1504.01013) (1st ranked in VOC2012)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mGuosheng Lin, Chunhua Shen, Ian Reid, Anton van den Hengel, Deeply Learning the Messages in Message Passing Inference, arXiv:1508.02108. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1506.02108) (4th ranked in VOC2012)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mDeep Parsing Network (DPN)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mZiwei[39m[38;5;12m [39m[38;5;12mLiu,[39m[38;5;12m [39m[38;5;12mXiaoxiao[39m[38;5;12m [39m[38;5;12mLi,[39m[38;5;12m [39m[38;5;12mPing[39m[38;5;12m [39m[38;5;12mLuo,[39m[38;5;12m [39m[38;5;12mChen[39m[38;5;12m [39m[38;5;12mChange[39m[38;5;12m [39m[38;5;12mLoy,[39m[38;5;12m [39m[38;5;12mXiaoou[39m[38;5;12m [39m[38;5;12mTang,[39m[38;5;12m [39m[38;5;12mSemantic[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mSegmentation[39m[38;5;12m [39m[38;5;12mvia[39m[38;5;12m [39m[38;5;12mDeep[39m[38;5;12m [39m[38;5;12mParsing[39m[38;5;12m [39m[38;5;12mNetwork,[39m[38;5;12m [39m[38;5;12marXiv:1509.02634[39m[38;5;12m [39m[38;5;12m/[39m[38;5;12m [39m[38;5;12mICCV[39m[38;5;12m [39m[38;5;12m2015[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://arxiv.org/pdf/1509.02634.pdf)[39m[38;5;12m [39m[38;5;12m(2nd[39m[38;5;12m [39m[38;5;12mranked[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m
|
||||
[38;5;12mVOC[39m[38;5;12m [39m[38;5;12m2012)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mZiwei Liu, Xiaoxiao Li, Ping Luo, Chen Change Loy, Xiaoou Tang, Semantic Image Segmentation via Deep Parsing Network, arXiv:1509.02634 / ICCV 2015 [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1509.02634.pdf) (2nd ranked in VOC 2012)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mCentraleSuperBoundaries, INRIA [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1511.07386)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mIasonas Kokkinos, Surpassing Humans in Boundary Detection using Deep Learning, arXiv:1411.07386 (4th ranked in VOC 2012)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mBoxSup [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1503.01640)[39m
|
||||
@@ -201,14 +191,12 @@
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mPOSTECH[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mHyeonwoo Noh, Seunghoon Hong, Bohyung Han, Learning Deconvolution Network for Semantic Segmentation, arXiv:1505.04366. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1505.04366) (7th ranked in VOC2012)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mSeunghoon Hong, Hyeonwoo Noh, Bohyung Han, Decoupled Deep Neural Network for Semi-supervised Semantic Segmentation, arXiv:1506.04924. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1506.04924)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mSeunghoon[39m[38;5;12m [39m[38;5;12mHong,Junhyuk[39m[38;5;12m [39m[38;5;12mOh,[39m[38;5;12m [39m[38;5;12mBohyung[39m[38;5;12m [39m[38;5;12mHan,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mHonglak[39m[38;5;12m [39m[38;5;12mLee,[39m[38;5;12m [39m[38;5;12mLearning[39m[38;5;12m [39m[38;5;12mTransferrable[39m[38;5;12m [39m[38;5;12mKnowledge[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mSemantic[39m[38;5;12m [39m[38;5;12mSegmentation[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mDeep[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mNeural[39m[38;5;12m [39m[38;5;12mNetwork,[39m[38;5;12m [39m[38;5;12marXiv:1512.07928[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m
|
||||
[38;5;14m[1m(http://arxiv.org/pdf/1512.07928.pdf)[0m[38;5;12m [39m[38;5;12mProject[39m[38;5;12m [39m[38;5;12mPage[39m[38;5;14m[1m [0m[38;5;14m[1m(http://cvlab.postech.ac.kr/research/transfernet/)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mSeunghoon[39m[38;5;12m [39m[38;5;12mHong,Junhyuk[39m[38;5;12m [39m[38;5;12mOh,[39m[38;5;12m [39m[38;5;12mBohyung[39m[38;5;12m [39m[38;5;12mHan,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mHonglak[39m[38;5;12m [39m[38;5;12mLee,[39m[38;5;12m [39m[38;5;12mLearning[39m[38;5;12m [39m[38;5;12mTransferrable[39m[38;5;12m [39m[38;5;12mKnowledge[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mSemantic[39m[38;5;12m [39m[38;5;12mSegmentation[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mDeep[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mNeural[39m[38;5;12m [39m[38;5;12mNetwork,[39m[38;5;12m [39m[38;5;12marXiv:1512.07928[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;14m[1m(http://arxiv.org/pdf/1512.07928.pdf)[0m[38;5;12m [39m[38;5;12mProject[39m[38;5;12m [39m[38;5;12mPage[39m[38;5;14m[1m [0m
|
||||
[38;5;14m[1m(http://cvlab.postech.ac.kr/research/transfernet/)[0m[38;5;12m [39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mConditional Random Fields as Recurrent Neural Networks [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1502.03240)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mShuai[39m[38;5;12m [39m[38;5;12mZheng,[39m[38;5;12m [39m[38;5;12mSadeep[39m[38;5;12m [39m[38;5;12mJayasumana,[39m[38;5;12m [39m[38;5;12mBernardino[39m[38;5;12m [39m[38;5;12mRomera-Paredes,[39m[38;5;12m [39m[38;5;12mVibhav[39m[38;5;12m [39m[38;5;12mVineet,[39m[38;5;12m [39m[38;5;12mZhizhong[39m[38;5;12m [39m[38;5;12mSu,[39m[38;5;12m [39m[38;5;12mDalong[39m[38;5;12m [39m[38;5;12mDu,[39m[38;5;12m [39m[38;5;12mChang[39m[38;5;12m [39m[38;5;12mHuang,[39m[38;5;12m [39m[38;5;12mPhilip[39m[38;5;12m [39m[38;5;12mH.[39m[38;5;12m [39m[38;5;12mS.[39m[38;5;12m [39m[38;5;12mTorr,[39m[38;5;12m [39m[38;5;12mConditional[39m[38;5;12m [39m[38;5;12mRandom[39m[38;5;12m [39m[38;5;12mFields[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mRecurrent[39m[38;5;12m [39m[38;5;12mNeural[39m[38;5;12m [39m[38;5;12mNetworks,[39m[38;5;12m [39m[38;5;12marXiv:1502.03240.[39m[38;5;12m [39m
|
||||
[38;5;12m(8th[39m[38;5;12m [39m[38;5;12mranked[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mVOC2012)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mShuai Zheng, Sadeep Jayasumana, Bernardino Romera-Paredes, Vibhav Vineet, Zhizhong Su, Dalong Du, Chang Huang, Philip H. S. Torr, Conditional Random Fields as Recurrent Neural Networks, arXiv:1502.03240. (8th ranked in VOC2012)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mDeepLab[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mLiang-Chieh[39m[38;5;12m [39m[38;5;12mChen,[39m[38;5;12m [39m[38;5;12mGeorge[39m[38;5;12m [39m[38;5;12mPapandreou,[39m[38;5;12m [39m[38;5;12mKevin[39m[38;5;12m [39m[38;5;12mMurphy,[39m[38;5;12m [39m[38;5;12mAlan[39m[38;5;12m [39m[38;5;12mL.[39m[38;5;12m [39m[38;5;12mYuille,[39m[38;5;12m [39m[38;5;12mWeakly-and[39m[38;5;12m [39m[38;5;12msemi-supervised[39m[38;5;12m [39m[38;5;12mlearning[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mDCNN[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12msemantic[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msegmentation,[39m[38;5;12m [39m[38;5;12marXiv:1502.02734.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://arxiv.org/pdf/1502.02734)[39m[38;5;12m [39m
|
||||
[38;5;12m(9th[39m[38;5;12m [39m[38;5;12mranked[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mVOC2012)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mLiang-Chieh Chen, George Papandreou, Kevin Murphy, Alan L. Yuille, Weakly-and semi-supervised learning of a DCNN for semantic image segmentation, arXiv:1502.02734. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1502.02734) (9th ranked in VOC2012)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mZoom-out [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Mostajabi_Feedforward_Semantic_Segmentation_2015_CVPR_paper.pdf)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mMohammadreza Mostajabi, Payman Yadollahpour, Gregory Shakhnarovich, Feedforward Semantic Segmentation With Zoom-Out Features, CVPR, 2015[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJoint Calibration [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1507.01581)[39m
|
||||
@@ -225,10 +213,9 @@
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mClement Farabet, Camille Couprie, Laurent Najman, Yann LeCun, Scene Parsing with Multiscale Feature Learning, Purity Trees, and Optimal Covers, ICML, 2012.[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mClement Farabet, Camille Couprie, Laurent Najman, Yann LeCun, Learning Hierarchical Features for Scene Labeling, PAMI, 2013.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mUniversity of Cambridge [39m[38;5;12mWeb[39m[38;5;14m[1m [0m[38;5;12m (http://mi.eng.cam.ac.uk/projects/segnet/)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mVijay[39m[38;5;12m [39m[38;5;12mBadrinarayanan,[39m[38;5;12m [39m[38;5;12mAlex[39m[38;5;12m [39m[38;5;12mKendall[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mRoberto[39m[38;5;12m [39m[38;5;12mCipolla[39m[38;5;12m [39m[38;5;12m"SegNet:[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mDeep[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mEncoder-Decoder[39m[38;5;12m [39m[38;5;12mArchitecture[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mSegmentation."[39m[38;5;12m [39m[38;5;12marXiv[39m[38;5;12m [39m[38;5;12mpreprint[39m[38;5;12m [39m[38;5;12marXiv:1511.00561,[39m[38;5;12m [39m[38;5;12m2015.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mVijay Badrinarayanan, Alex Kendall and Roberto Cipolla "SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation." arXiv preprint arXiv:1511.00561, 2015. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/abs/1511.00561)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mAlex[39m[38;5;12m [39m[38;5;12mKendall,[39m[38;5;12m [39m[38;5;12mVijay[39m[38;5;12m [39m[38;5;12mBadrinarayanan[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mRoberto[39m[38;5;12m [39m[38;5;12mCipolla[39m[38;5;12m [39m[38;5;12m"Bayesian[39m[38;5;12m [39m[38;5;12mSegNet:[39m[38;5;12m [39m[38;5;12mModel[39m[38;5;12m [39m[38;5;12mUncertainty[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mDeep[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mEncoder-Decoder[39m[38;5;12m [39m[38;5;12mArchitectures[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mScene[39m[38;5;12m [39m[38;5;12mUnderstanding."[39m[38;5;12m [39m[38;5;12marXiv[39m[38;5;12m [39m[38;5;12mpreprint[39m[38;5;12m [39m[38;5;12marXiv:1511.02680,[39m[38;5;12m [39m[38;5;12m2015.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(http://arxiv.org/abs/1511.00561)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mAlex[39m[38;5;12m [39m[38;5;12mKendall,[39m[38;5;12m [39m[38;5;12mVijay[39m[38;5;12m [39m[38;5;12mBadrinarayanan[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mRoberto[39m[38;5;12m [39m[38;5;12mCipolla[39m[38;5;12m [39m[38;5;12m"Bayesian[39m[38;5;12m [39m[38;5;12mSegNet:[39m[38;5;12m [39m[38;5;12mModel[39m[38;5;12m [39m[38;5;12mUncertainty[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mDeep[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mEncoder-Decoder[39m[38;5;12m [39m[38;5;12mArchitectures[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mScene[39m[38;5;12m [39m[38;5;12mUnderstanding."[39m[38;5;12m [39m[38;5;12marXiv[39m[38;5;12m [39m[38;5;12mpreprint[39m[38;5;12m [39m[38;5;12marXiv:1511.02680,[39m[38;5;12m [39m[38;5;12m2015.[39m[38;5;12m [39m
|
||||
[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m[38;5;12m(http://arxiv.org/abs/1511.00561)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mPrinceton[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mFisher Yu, Vladlen Koltun, "Multi-Scale Context Aggregation by Dilated Convolutions", ICLR 2016, [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1511.07122v2.pdf)[0m[38;5;12m [39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mUniv. of Washington, Allen AI[39m
|
||||
@@ -293,8 +280,7 @@
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mToronto [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1411.2539)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mRyan Kiros, Ruslan Salakhutdinov, Richard S. Zemel, Unifying Visual-Semantic Embeddings with Multimodal Neural Language Models, arXiv:1411.2539.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mBerkeley [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1411.4389)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJeff[39m[38;5;12m [39m[38;5;12mDonahue,[39m[38;5;12m [39m[38;5;12mLisa[39m[38;5;12m [39m[38;5;12mAnne[39m[38;5;12m [39m[38;5;12mHendricks,[39m[38;5;12m [39m[38;5;12mSergio[39m[38;5;12m [39m[38;5;12mGuadarrama,[39m[38;5;12m [39m[38;5;12mMarcus[39m[38;5;12m [39m[38;5;12mRohrbach,[39m[38;5;12m [39m[38;5;12mSubhashini[39m[38;5;12m [39m[38;5;12mVenugopalan,[39m[38;5;12m [39m[38;5;12mKate[39m[38;5;12m [39m[38;5;12mSaenko,[39m[38;5;12m [39m[38;5;12mTrevor[39m[38;5;12m [39m[38;5;12mDarrell,[39m[38;5;12m [39m[38;5;12mLong-term[39m[38;5;12m [39m[38;5;12mRecurrent[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mNetworks[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m[38;5;12mRecognition[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mDescription,[39m[38;5;12m [39m
|
||||
[38;5;12marXiv:1411.4389.[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJeff Donahue, Lisa Anne Hendricks, Sergio Guadarrama, Marcus Rohrbach, Subhashini Venugopalan, Kate Saenko, Trevor Darrell, Long-term Recurrent Convolutional Networks for Visual Recognition and Description, arXiv:1411.4389.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mGoogle [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1411.4555)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mOriol Vinyals, Alexander Toshev, Samy Bengio, Dumitru Erhan, Show and Tell: A Neural Image Caption Generator, arXiv:1411.4555.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mStanford [39m[38;5;12mWeb[39m[38;5;14m[1m [0m[38;5;12m (http://cs.stanford.edu/people/karpathy/deepimagesent/) [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://cs.stanford.edu/people/karpathy/cvpr2015.pdf)[39m
|
||||
@@ -305,19 +291,17 @@
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mXinlei Chen, C. Lawrence Zitnick, Learning a Recurrent Visual Representation for Image Caption Generation, arXiv:1411.5654.[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mXinlei Chen, C. Lawrence Zitnick, Mind’s Eye: A Recurrent Visual Representation for Image Caption Generation, CVPR 2015[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mMicrosoft [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1411.4952)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mHao[39m[38;5;12m [39m[38;5;12mFang,[39m[38;5;12m [39m[38;5;12mSaurabh[39m[38;5;12m [39m[38;5;12mGupta,[39m[38;5;12m [39m[38;5;12mForrest[39m[38;5;12m [39m[38;5;12mIandola,[39m[38;5;12m [39m[38;5;12mRupesh[39m[38;5;12m [39m[38;5;12mSrivastava,[39m[38;5;12m [39m[38;5;12mLi[39m[38;5;12m [39m[38;5;12mDeng,[39m[38;5;12m [39m[38;5;12mPiotr[39m[38;5;12m [39m[38;5;12mDollár,[39m[38;5;12m [39m[38;5;12mJianfeng[39m[38;5;12m [39m[38;5;12mGao,[39m[38;5;12m [39m[38;5;12mXiaodong[39m[38;5;12m [39m[38;5;12mHe,[39m[38;5;12m [39m[38;5;12mMargaret[39m[38;5;12m [39m[38;5;12mMitchell,[39m[38;5;12m [39m[38;5;12mJohn[39m[38;5;12m [39m[38;5;12mC.[39m[38;5;12m [39m[38;5;12mPlatt,[39m[38;5;12m [39m[38;5;12mC.[39m[38;5;12m [39m[38;5;12mLawrence[39m[38;5;12m [39m[38;5;12mZitnick,[39m[38;5;12m [39m[38;5;12mGeoffrey[39m[38;5;12m [39m[38;5;12mZweig,[39m[38;5;12m [39m[38;5;12mFrom[39m[38;5;12m [39m[38;5;12mCaptions[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m
|
||||
[38;5;12mConcepts[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mBack,[39m[38;5;12m [39m[38;5;12mCVPR,[39m[38;5;12m [39m[38;5;12m2015.[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mHao[39m[38;5;12m [39m[38;5;12mFang,[39m[38;5;12m [39m[38;5;12mSaurabh[39m[38;5;12m [39m[38;5;12mGupta,[39m[38;5;12m [39m[38;5;12mForrest[39m[38;5;12m [39m[38;5;12mIandola,[39m[38;5;12m [39m[38;5;12mRupesh[39m[38;5;12m [39m[38;5;12mSrivastava,[39m[38;5;12m [39m[38;5;12mLi[39m[38;5;12m [39m[38;5;12mDeng,[39m[38;5;12m [39m[38;5;12mPiotr[39m[38;5;12m [39m[38;5;12mDollár,[39m[38;5;12m [39m[38;5;12mJianfeng[39m[38;5;12m [39m[38;5;12mGao,[39m[38;5;12m [39m[38;5;12mXiaodong[39m[38;5;12m [39m[38;5;12mHe,[39m[38;5;12m [39m[38;5;12mMargaret[39m[38;5;12m [39m[38;5;12mMitchell,[39m[38;5;12m [39m[38;5;12mJohn[39m[38;5;12m [39m[38;5;12mC.[39m[38;5;12m [39m[38;5;12mPlatt,[39m[38;5;12m [39m[38;5;12mC.[39m[38;5;12m [39m[38;5;12mLawrence[39m[38;5;12m [39m[38;5;12mZitnick,[39m[38;5;12m [39m[38;5;12mGeoffrey[39m[38;5;12m [39m[38;5;12mZweig,[39m[38;5;12m [39m[38;5;12mFrom[39m[38;5;12m [39m[38;5;12mCaptions[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m[38;5;12mConcepts[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mBack,[39m[38;5;12m [39m[38;5;12mCVPR,[39m[38;5;12m [39m
|
||||
[38;5;12m2015.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mUniv. Montreal / Univ. Toronto [39m[38;5;12mWeb[39m[38;5;14m[1m (http://kelvinxu.github.io/projects/capgen.html)[0m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m (http://www.cs.toronto.edu/~zemel/documents/captionAttn.pdf)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mKelvin[39m[38;5;12m [39m[38;5;12mXu,[39m[38;5;12m [39m[38;5;12mJimmy[39m[38;5;12m [39m[38;5;12mLei[39m[38;5;12m [39m[38;5;12mBa,[39m[38;5;12m [39m[38;5;12mRyan[39m[38;5;12m [39m[38;5;12mKiros,[39m[38;5;12m [39m[38;5;12mKyunghyun[39m[38;5;12m [39m[38;5;12mCho,[39m[38;5;12m [39m[38;5;12mAaron[39m[38;5;12m [39m[38;5;12mCourville,[39m[38;5;12m [39m[38;5;12mRuslan[39m[38;5;12m [39m[38;5;12mSalakhutdinov,[39m[38;5;12m [39m[38;5;12mRichard[39m[38;5;12m [39m[38;5;12mS.[39m[38;5;12m [39m[38;5;12mZemel,[39m[38;5;12m [39m[38;5;12mYoshua[39m[38;5;12m [39m[38;5;12mBengio,[39m[38;5;12m [39m[38;5;12mShow,[39m[38;5;12m [39m[38;5;12mAttend,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mTell:[39m[38;5;12m [39m[38;5;12mNeural[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mCaption[39m[38;5;12m [39m[38;5;12mGeneration[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m[38;5;12mAttention,[39m[38;5;12m [39m
|
||||
[38;5;12marXiv:1502.03044[39m[38;5;12m [39m[38;5;12m/[39m[38;5;12m [39m[38;5;12mICML[39m[38;5;12m [39m[38;5;12m2015[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mKelvin Xu, Jimmy Lei Ba, Ryan Kiros, Kyunghyun Cho, Aaron Courville, Ruslan Salakhutdinov, Richard S. Zemel, Yoshua Bengio, Show, Attend, and Tell: Neural Image Caption Generation with Visual Attention, arXiv:1502.03044 / ICML 2015[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mIdiap / EPFL / Facebook [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1502.03671)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mRemi Lebret, Pedro O. Pinheiro, Ronan Collobert, Phrase-based Image Captioning, arXiv:1502.03671 / ICML 2015[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mUCLA / Baidu [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1504.06692)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJunhua Mao, Wei Xu, Yi Yang, Jiang Wang, Zhiheng Huang, Alan L. Yuille, Learning like a Child: Fast Novel Visual Concept Learning from Sentence Descriptions of Images, arXiv:1504.06692[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mMS + Berkeley[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJacob Devlin, Saurabh Gupta, Ross Girshick, Margaret Mitchell, C. Lawrence Zitnick, Exploring Nearest Neighbor Approaches for Image Captioning, arXiv:1505.04467 [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1505.04467.pdf)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJacob[39m[38;5;12m [39m[38;5;12mDevlin,[39m[38;5;12m [39m[38;5;12mHao[39m[38;5;12m [39m[38;5;12mCheng,[39m[38;5;12m [39m[38;5;12mHao[39m[38;5;12m [39m[38;5;12mFang,[39m[38;5;12m [39m[38;5;12mSaurabh[39m[38;5;12m [39m[38;5;12mGupta,[39m[38;5;12m [39m[38;5;12mLi[39m[38;5;12m [39m[38;5;12mDeng,[39m[38;5;12m [39m[38;5;12mXiaodong[39m[38;5;12m [39m[38;5;12mHe,[39m[38;5;12m [39m[38;5;12mGeoffrey[39m[38;5;12m [39m[38;5;12mZweig,[39m[38;5;12m [39m[38;5;12mMargaret[39m[38;5;12m [39m[38;5;12mMitchell,[39m[38;5;12m [39m[38;5;12mLanguage[39m[38;5;12m [39m[38;5;12mModels[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mCaptioning:[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mQuirks[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mWhat[39m[38;5;12m [39m[38;5;12mWorks,[39m[38;5;12m [39m[38;5;12marXiv:1505.01809[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m
|
||||
[38;5;14m[1m(http://arxiv.org/pdf/1505.01809.pdf)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJacob[39m[38;5;12m [39m[38;5;12mDevlin,[39m[38;5;12m [39m[38;5;12mHao[39m[38;5;12m [39m[38;5;12mCheng,[39m[38;5;12m [39m[38;5;12mHao[39m[38;5;12m [39m[38;5;12mFang,[39m[38;5;12m [39m[38;5;12mSaurabh[39m[38;5;12m [39m[38;5;12mGupta,[39m[38;5;12m [39m[38;5;12mLi[39m[38;5;12m [39m[38;5;12mDeng,[39m[38;5;12m [39m[38;5;12mXiaodong[39m[38;5;12m [39m[38;5;12mHe,[39m[38;5;12m [39m[38;5;12mGeoffrey[39m[38;5;12m [39m[38;5;12mZweig,[39m[38;5;12m [39m[38;5;12mMargaret[39m[38;5;12m [39m[38;5;12mMitchell,[39m[38;5;12m [39m[38;5;12mLanguage[39m[38;5;12m [39m[38;5;12mModels[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mCaptioning:[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mQuirks[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mWhat[39m[38;5;12m [39m[38;5;12mWorks,[39m[38;5;12m [39m[38;5;12marXiv:1505.01809[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;14m[1m(http://arxiv.org/pdf/1505.01809.pdf)[0m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mAdelaide [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1506.01144.pdf)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mQi Wu, Chunhua Shen, Anton van den Hengel, Lingqiao Liu, Anthony Dick, Image Captioning with an Intermediate Attributes Layer, arXiv:1506.01144[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mTilburg [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1506.03694.pdf)[0m[38;5;12m [39m
|
||||
@@ -332,8 +316,7 @@
|
||||
|
||||
[38;2;255;187;0m[4mVideo Captioning[0m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mBerkeley [39m[38;5;12mWeb[39m[38;5;14m[1m [0m[38;5;12m (http://jeffdonahue.com/lrcn/) [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1411.4389.pdf)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJeff[39m[38;5;12m [39m[38;5;12mDonahue,[39m[38;5;12m [39m[38;5;12mLisa[39m[38;5;12m [39m[38;5;12mAnne[39m[38;5;12m [39m[38;5;12mHendricks,[39m[38;5;12m [39m[38;5;12mSergio[39m[38;5;12m [39m[38;5;12mGuadarrama,[39m[38;5;12m [39m[38;5;12mMarcus[39m[38;5;12m [39m[38;5;12mRohrbach,[39m[38;5;12m [39m[38;5;12mSubhashini[39m[38;5;12m [39m[38;5;12mVenugopalan,[39m[38;5;12m [39m[38;5;12mKate[39m[38;5;12m [39m[38;5;12mSaenko,[39m[38;5;12m [39m[38;5;12mTrevor[39m[38;5;12m [39m[38;5;12mDarrell,[39m[38;5;12m [39m[38;5;12mLong-term[39m[38;5;12m [39m[38;5;12mRecurrent[39m[38;5;12m [39m[38;5;12mConvolutional[39m[38;5;12m [39m[38;5;12mNetworks[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m[38;5;12mRecognition[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mDescription,[39m[38;5;12m [39m
|
||||
[38;5;12mCVPR,[39m[38;5;12m [39m[38;5;12m2015.[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJeff Donahue, Lisa Anne Hendricks, Sergio Guadarrama, Marcus Rohrbach, Subhashini Venugopalan, Kate Saenko, Trevor Darrell, Long-term Recurrent Convolutional Networks for Visual Recognition and Description, CVPR, 2015.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mUT / UML / Berkeley [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1412.4729)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mSubhashini Venugopalan, Huijuan Xu, Jeff Donahue, Marcus Rohrbach, Raymond Mooney, Kate Saenko, Translating Videos to Natural Language Using Deep Recurrent Neural Networks, arXiv:1412.4729.[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mMicrosoft [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/pdf/1505.01861)[39m
|
||||
@@ -345,8 +328,7 @@
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mMPI / Berkeley [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1506.01698.pdf)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mAnna Rohrbach, Marcus Rohrbach, Bernt Schiele, The Long-Short Story of Movie Description, arXiv:1506.01698[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mUniv. Toronto / MIT [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1506.06724.pdf)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mYukun[39m[38;5;12m [39m[38;5;12mZhu,[39m[38;5;12m [39m[38;5;12mRyan[39m[38;5;12m [39m[38;5;12mKiros,[39m[38;5;12m [39m[38;5;12mRichard[39m[38;5;12m [39m[38;5;12mZemel,[39m[38;5;12m [39m[38;5;12mRuslan[39m[38;5;12m [39m[38;5;12mSalakhutdinov,[39m[38;5;12m [39m[38;5;12mRaquel[39m[38;5;12m [39m[38;5;12mUrtasun,[39m[38;5;12m [39m[38;5;12mAntonio[39m[38;5;12m [39m[38;5;12mTorralba,[39m[38;5;12m [39m[38;5;12mSanja[39m[38;5;12m [39m[38;5;12mFidler,[39m[38;5;12m [39m[38;5;12mAligning[39m[38;5;12m [39m[38;5;12mBooks[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mMovies:[39m[38;5;12m [39m[38;5;12mTowards[39m[38;5;12m [39m[38;5;12mStory-like[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m[38;5;12mExplanations[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mWatching[39m[38;5;12m [39m[38;5;12mMovies[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mReading[39m[38;5;12m [39m
|
||||
[38;5;12mBooks,[39m[38;5;12m [39m[38;5;12marXiv:1506.06724[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mYukun Zhu, Ryan Kiros, Richard Zemel, Ruslan Salakhutdinov, Raquel Urtasun, Antonio Torralba, Sanja Fidler, Aligning Books and Movies: Towards Story-like Visual Explanations by Watching Movies and Reading Books, arXiv:1506.06724[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mUniv. Montreal [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1507.01053.pdf)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mKyunghyun Cho, Aaron Courville, Yoshua Bengio, Describing Multimedia Content using Attention-based Encoder-Decoder Networks, arXiv:1507.01053[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mTAU / USC [39m[38;5;12mpaper[39m[38;5;14m[1m (https://arxiv.org/pdf/1612.06950.pdf)[0m[38;5;12m [39m
|
||||
@@ -387,8 +369,7 @@
|
||||
[38;5;12m(http://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Dosovitskiy_Learning_to_Generate_2015_CVPR_paper.pdf)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mKarol Gregor, Ivo Danihelka, Alex Graves, Danilo Jimenez Rezende, Daan Wierstra, "DRAW: A Recurrent Neural Network For Image Generation", ICML, 2015. [39m[38;5;12mPaper[39m[38;5;14m[1m (https://arxiv.org/pdf/1502.04623v2.pdf)[0m[38;5;12m [39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mAdversarial Networks[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mIan[39m[38;5;12m [39m[38;5;12mJ.[39m[38;5;12m [39m[38;5;12mGoodfellow,[39m[38;5;12m [39m[38;5;12mJean[39m[38;5;12m [39m[38;5;12mPouget-Abadie,[39m[38;5;12m [39m[38;5;12mMehdi[39m[38;5;12m [39m[38;5;12mMirza,[39m[38;5;12m [39m[38;5;12mBing[39m[38;5;12m [39m[38;5;12mXu,[39m[38;5;12m [39m[38;5;12mDavid[39m[38;5;12m [39m[38;5;12mWarde-Farley,[39m[38;5;12m [39m[38;5;12mSherjil[39m[38;5;12m [39m[38;5;12mOzair,[39m[38;5;12m [39m[38;5;12mAaron[39m[38;5;12m [39m[38;5;12mCourville,[39m[38;5;12m [39m[38;5;12mYoshua[39m[38;5;12m [39m[38;5;12mBengio,[39m[38;5;12m [39m[38;5;12mGenerative[39m[38;5;12m [39m[38;5;12mAdversarial[39m[38;5;12m [39m[38;5;12mNetworks,[39m[38;5;12m [39m[38;5;12mNIPS,[39m[38;5;12m [39m[38;5;12m2014.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(http://arxiv.org/abs/1406.2661)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mIan J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio, Generative Adversarial Networks, NIPS, 2014. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/abs/1406.2661)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mEmily Denton, Soumith Chintala, Arthur Szlam, Rob Fergus, Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks, NIPS, 2015. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/abs/1506.05751)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mLucas Theis, Aäron van den Oord, Matthias Bethge, "A note on the evaluation of generative models", ICLR 2016. [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/abs/1511.01844)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mZhenwen Dai, Andreas Damianou, Javier Gonzalez, Neil Lawrence, "Variationally Auto-Encoded Deep Gaussian Processes", ICLR 2016. [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1511.06455v2.pdf)[0m[38;5;12m [39m
|
||||
@@ -396,8 +377,8 @@
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJost Tobias Springenberg, "Unsupervised and Semi-supervised Learning with Categorical Generative Adversarial Networks", ICLR 2016, [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1511.06390v1.pdf)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mHarrison Edwards, Amos Storkey, "Censoring Representations with an Adversary", ICLR 2016, [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1511.05897v3.pdf)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mTakeru Miyato, Shin-ichi Maeda, Masanori Koyama, Ken Nakae, Shin Ishii, "Distributional Smoothing with Virtual Adversarial Training", ICLR 2016, [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1507.00677v8.pdf)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJun-Yan[39m[38;5;12m [39m[38;5;12mZhu,[39m[38;5;12m [39m[38;5;12mPhilipp[39m[38;5;12m [39m[38;5;12mKrahenbuhl,[39m[38;5;12m [39m[38;5;12mEli[39m[38;5;12m [39m[38;5;12mShechtman,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mAlexei[39m[38;5;12m [39m[38;5;12mA.[39m[38;5;12m [39m[38;5;12mEfros,[39m[38;5;12m [39m[38;5;12m"Generative[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m[38;5;12mManipulation[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mNatural[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mManifold",[39m[38;5;12m [39m[38;5;12mECCV[39m[38;5;12m [39m[38;5;12m2016.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;14m[1m(https://arxiv.org/pdf/1609.03552v2.pdf)[0m[38;5;12m [39m[38;5;12mCode[39m[38;5;14m[1m [0m
|
||||
[38;5;14m[1m(https://github.com/junyanz/iGAN)[0m[38;5;12m [39m[38;5;12mVideo[39m[38;5;14m[1m [0m[38;5;14m[1m(https://youtu.be/9c4z6YsBGQ0)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mJun-Yan[39m[38;5;12m [39m[38;5;12mZhu,[39m[38;5;12m [39m[38;5;12mPhilipp[39m[38;5;12m [39m[38;5;12mKrahenbuhl,[39m[38;5;12m [39m[38;5;12mEli[39m[38;5;12m [39m[38;5;12mShechtman,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mAlexei[39m[38;5;12m [39m[38;5;12mA.[39m[38;5;12m [39m[38;5;12mEfros,[39m[38;5;12m [39m[38;5;12m"Generative[39m[38;5;12m [39m[38;5;12mVisual[39m[38;5;12m [39m[38;5;12mManipulation[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mNatural[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mManifold",[39m[38;5;12m [39m[38;5;12mECCV[39m[38;5;12m [39m[38;5;12m2016.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;14m[1m(https://arxiv.org/pdf/1609.03552v2.pdf)[0m[38;5;12m [39m[38;5;12mCode[39m[38;5;14m[1m [0m[38;5;14m[1m(https://github.com/junyanz/iGAN)[0m[38;5;12m [39m
|
||||
[38;5;12mVideo[39m[38;5;14m[1m [0m[38;5;14m[1m(https://youtu.be/9c4z6YsBGQ0)[0m[38;5;12m [39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mMixing Convolutional and Adversarial Networks[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mAlec Radford, Luke Metz, Soumith Chintala, "Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks", ICLR 2016. [39m[38;5;12mPaper[39m[38;5;14m[1m (http://arxiv.org/pdf/1511.06434.pdf)[0m[38;5;12m [39m
|
||||
|
||||
@@ -421,8 +402,7 @@
|
||||
[38;5;12m(http://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Zhang_Appearance-Based_Gaze_Estimation_2015_CVPR_paper.pdf)[39m[38;5;12m [39m[38;5;12mWebsite[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(https://www.mpi-inf.mpg.de/departments/computer-vision-and-multimodal-computing/research/gaze-based-human-computer-interaction/appearance-based-gaze-estimation-in-the-wild-mpiigaze/)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mFace Recognition[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mYaniv[39m[38;5;12m [39m[38;5;12mTaigman,[39m[38;5;12m [39m[38;5;12mMing[39m[38;5;12m [39m[38;5;12mYang,[39m[38;5;12m [39m[38;5;12mMarc'Aurelio[39m[38;5;12m [39m[38;5;12mRanzato,[39m[38;5;12m [39m[38;5;12mLior[39m[38;5;12m [39m[38;5;12mWolf,[39m[38;5;12m [39m[38;5;12mDeepFace:[39m[38;5;12m [39m[38;5;12mClosing[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mGap[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mHuman-Level[39m[38;5;12m [39m[38;5;12mPerformance[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mFace[39m[38;5;12m [39m[38;5;12mVerification,[39m[38;5;12m [39m[38;5;12mCVPR,[39m[38;5;12m [39m[38;5;12m2014.[39m[38;5;12m [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m [39m
|
||||
[38;5;12m(https://www.cs.toronto.edu/~ranzato/publications/taigman_cvpr14.pdf)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mYaniv Taigman, Ming Yang, Marc'Aurelio Ranzato, Lior Wolf, DeepFace: Closing the Gap to Human-Level Performance in Face Verification, CVPR, 2014. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (https://www.cs.toronto.edu/~ranzato/publications/taigman_cvpr14.pdf)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mYi Sun, Ding Liang, Xiaogang Wang, Xiaoou Tang, DeepID3: Face Recognition with Very Deep Neural Networks, 2015. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/abs/1502.00873)[39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mFlorian Schroff, Dmitry Kalenichenko, James Philbin, FaceNet: A Unified Embedding for Face Recognition and Clustering, CVPR, 2015. [39m[38;5;12mPaper[39m[38;5;14m[1m [0m[38;5;12m (http://arxiv.org/abs/1503.03832)[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mFacial Landmark Detection[39m
|
||||
@@ -459,8 +439,7 @@
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mTorch-based deep learning libraries: [39m[38;5;12mtorchnet[39m[38;5;14m[1m (https://github.com/torchnet/torchnet)[0m[38;5;12m ,[39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mCaffe: Deep learning framework by the BVLC [39m[38;5;12mWeb[39m[38;5;14m[1m (http://caffe.berkeleyvision.org/)[0m[38;5;12m [39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mTheano: Mathematical library in Python, maintained by LISA lab [39m[38;5;12mWeb[39m[38;5;14m[1m (http://deeplearning.net/software/theano/)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mTheano-based[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mlearning[39m[38;5;12m [39m[38;5;12mlibraries:[39m[38;5;12m [39m[38;5;12mPylearn2[39m[38;5;14m[1m [0m[38;5;14m[1m(http://deeplearning.net/software/pylearn2/)[0m[38;5;12m [39m[38;5;12m,[39m[38;5;12m [39m[38;5;12mBlocks[39m[38;5;14m[1m [0m[38;5;14m[1m(https://github.com/mila-udem/blocks)[0m[38;5;12m [39m[38;5;12m,[39m[38;5;12m [39m[38;5;12mKeras[39m[38;5;14m[1m [0m[38;5;14m[1m(http://keras.io/)[0m[38;5;12m [39m[38;5;12m,[39m[38;5;12m [39m[38;5;12mLasagne[39m[38;5;14m[1m [0m
|
||||
[38;5;14m[1m(https://github.com/Lasagne/Lasagne)[0m[38;5;12m [39m
|
||||
[38;5;12m [39m[38;5;12m [39m[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mTheano-based deep learning libraries: [39m[38;5;12mPylearn2[39m[38;5;14m[1m (http://deeplearning.net/software/pylearn2/)[0m[38;5;12m , [39m[38;5;12mBlocks[39m[38;5;14m[1m (https://github.com/mila-udem/blocks)[0m[38;5;12m , [39m[38;5;12mKeras[39m[38;5;14m[1m (http://keras.io/)[0m[38;5;12m , [39m[38;5;12mLasagne[39m[38;5;14m[1m (https://github.com/Lasagne/Lasagne)[0m[38;5;12m [39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mMatConvNet: CNNs for MATLAB [39m[38;5;12mWeb[39m[38;5;14m[1m (http://www.vlfeat.org/matconvnet/)[0m[38;5;12m [39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mMXNet: A flexible and efficient deep learning library for heterogeneous distributed systems with multi-language support [39m[38;5;12mWeb[39m[38;5;14m[1m (http://mxnet.io/)[0m[38;5;12m [39m
|
||||
[48;5;12m[38;5;11m⟡[49m[39m[38;5;12m [39m[38;5;12mDeepgaze: A computer vision library for human-computer interaction based on CNNs [39m[38;5;12mWeb[39m[38;5;14m[1m (https://github.com/mpatacchiola/deepgaze)[0m[38;5;12m [39m
|
||||
|
||||
Reference in New Issue
Block a user