update lists
This commit is contained in:
@@ -55,8 +55,8 @@
|
||||
[38;5;12m22. [39m[38;5;14m[1mRegularization in Deep Learning[0m[38;5;12m (https://www.manning.com/books/regularization-in-deep-learning) - by Liu Peng[39m
|
||||
[38;5;12m23. [39m[38;5;14m[1mJax in Action[0m[38;5;12m (https://www.manning.com/books/jax-in-action) - by Grigory Sapunov[39m
|
||||
[38;5;12m24.[39m[38;5;12m [39m[38;5;14m[1mHands-On[0m[38;5;14m[1m [0m[38;5;14m[1mMachine[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mScikit-Learn,[0m[38;5;14m[1m [0m[38;5;14m[1mKeras,[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mTensorFlow[0m[38;5;12m [39m
|
||||
[38;5;12m(https://www.knowledgeisle.com/wp-content/uploads/2019/12/2-Aur%C3%A9lien-G%C3%A9ron-Hands-On-Machine-Learning-with-Scikit-Learn-Keras-and-Tensorflow_-Concepts-Tools-and-Techniques-to-Build-Intelligent-Systems-O%E2%80%99Reilly-Media-201[39m
|
||||
[38;5;12m9.pdf)[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mAurélien[39m[38;5;12m [39m[38;5;12mGéron[39m[38;5;12m [39m[38;5;12m|[39m[38;5;12m [39m[38;5;12mOct[39m[38;5;12m [39m[38;5;12m15,[39m[38;5;12m [39m[38;5;12m2019[39m
|
||||
[38;5;12m(https://www.knowledgeisle.com/wp-content/uploads/2019/12/2-Aur%C3%A9lien-G%C3%A9ron-Hands-On-Machine-Learning-with-Scikit-Learn-Keras-and-Tensorflow_-Concepts-Tools-and-Techniques-to-Build-Intelligent-Systems-O%E2%80%99Reilly-Media-2019.pdf)[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m
|
||||
[38;5;12mAurélien[39m[38;5;12m [39m[38;5;12mGéron[39m[38;5;12m [39m[38;5;12m|[39m[38;5;12m [39m[38;5;12mOct[39m[38;5;12m [39m[38;5;12m15,[39m[38;5;12m [39m[38;5;12m2019[39m
|
||||
|
||||
[38;2;255;187;0m[4mCourses[0m
|
||||
|
||||
@@ -74,8 +74,8 @@
|
||||
[38;5;12m11. [39m[38;5;14m[1mNeural Networks - usherbrooke[0m[38;5;12m (http://info.usherbrooke.ca/hlarochelle/neural_networks/content.html)[39m
|
||||
[38;5;12m12. [39m[38;5;14m[1mMachine Learning - Oxford[0m[38;5;12m (https://www.cs.ox.ac.uk/people/nando.defreitas/machinelearning/) (2014-2015)[39m
|
||||
[38;5;12m13. [39m[38;5;14m[1mDeep Learning - Nvidia[0m[38;5;12m (https://developer.nvidia.com/deep-learning-courses) (2015)[39m
|
||||
[38;5;12m14.[39m[38;5;12m [39m[38;5;14m[1mGraduate[0m[38;5;14m[1m [0m[38;5;14m[1mSummer[0m[38;5;14m[1m [0m[38;5;14m[1mSchool:[0m[38;5;14m[1m [0m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning,[0m[38;5;14m[1m [0m[38;5;14m[1mFeature[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;12m [39m[38;5;12m(https://www.youtube.com/playlist?list=PLHyI3Fbmv0SdzMHAy0aN59oYnLy5vyyTA)[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mGeoffrey[39m[38;5;12m [39m[38;5;12mHinton,[39m[38;5;12m [39m[38;5;12mYoshua[39m[38;5;12m [39m[38;5;12mBengio,[39m[38;5;12m [39m[38;5;12mYann[39m[38;5;12m [39m[38;5;12mLeCun,[39m[38;5;12m [39m[38;5;12mAndrew[39m[38;5;12m [39m[38;5;12mNg,[39m[38;5;12m [39m[38;5;12mNando[39m[38;5;12m [39m[38;5;12mde[39m[38;5;12m [39m[38;5;12mFreitas[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12mothers[39m[38;5;12m [39m[38;5;12m@[39m[38;5;12m [39m
|
||||
[38;5;12mIPAM,[39m[38;5;12m [39m[38;5;12mUCLA[39m[38;5;12m [39m[38;5;12m(2012)[39m
|
||||
[38;5;12m14.[39m[38;5;12m [39m[38;5;14m[1mGraduate[0m[38;5;14m[1m [0m[38;5;14m[1mSummer[0m[38;5;14m[1m [0m[38;5;14m[1mSchool:[0m[38;5;14m[1m [0m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning,[0m[38;5;14m[1m [0m[38;5;14m[1mFeature[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;12m [39m[38;5;12m(https://www.youtube.com/playlist?list=PLHyI3Fbmv0SdzMHAy0aN59oYnLy5vyyTA)[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mGeoffrey[39m[38;5;12m [39m[38;5;12mHinton,[39m[38;5;12m [39m[38;5;12mYoshua[39m[38;5;12m [39m[38;5;12mBengio,[39m[38;5;12m [39m[38;5;12mYann[39m[38;5;12m [39m[38;5;12mLeCun,[39m[38;5;12m [39m[38;5;12mAndrew[39m[38;5;12m [39m[38;5;12mNg,[39m[38;5;12m [39m[38;5;12mNando[39m[38;5;12m [39m[38;5;12mde[39m[38;5;12m [39m[38;5;12mFreitas[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12mothers[39m[38;5;12m [39m[38;5;12m@[39m[38;5;12m [39m[38;5;12mIPAM,[39m[38;5;12m [39m[38;5;12mUCLA[39m[38;5;12m [39m
|
||||
[38;5;12m(2012)[39m
|
||||
[38;5;12m15. [39m[38;5;14m[1mDeep Learning - Udacity/Google[0m[38;5;12m (https://www.udacity.com/course/deep-learning--ud730) by Vincent Vanhoucke and Arpan Chakraborty (2016)[39m
|
||||
[38;5;12m16. [39m[38;5;14m[1mDeep Learning - UWaterloo[0m[38;5;12m (https://www.youtube.com/playlist?list=PLehuLRPyt1Hyi78UOkMPWCGRxGcA9NVOE) by Prof. Ali Ghodsi at University of Waterloo (2015)[39m
|
||||
[38;5;12m17. [39m[38;5;14m[1mStatistical Machine Learning - CMU[0m[38;5;12m (https://www.youtube.com/watch?v=azaLcvuql_g&list=PLjbUi5mgii6BWEUZf7He6nowWvGne_Y8r) by Prof. Larry Wasserman[39m
|
||||
@@ -130,10 +130,9 @@
|
||||
[38;5;12m18. [39m[38;5;14m[1mNIPS 2016 lecture and workshop videos[0m[38;5;12m (https://nips.cc/Conferences/2016/Schedule) - NIPS 2016[39m
|
||||
[38;5;12m19. [39m[38;5;14m[1mDeep Learning Crash Course[0m[38;5;12m (https://www.youtube.com/watch?v=oS5fz_mHVz0&list=PLWKotBjTDoLj3rXBL-nEIPRN9V3a9Cx07): a series of mini-lectures by Leo Isikdogan on YouTube (2018)[39m
|
||||
[38;5;12m20. [39m[38;5;14m[1mDeep Learning Crash Course[0m[38;5;12m (https://www.manning.com/livevideo/deep-learning-crash-course) By Oliver Zeigermann[39m
|
||||
[38;5;12m21.[39m[38;5;12m [39m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mR[0m[38;5;14m[1m [0m[38;5;14m[1min[0m[38;5;14m[1m [0m[38;5;14m[1mMotion[0m[38;5;12m [39m[38;5;12m(https://www.manning.com/livevideo/deep-learning-with-r-in-motion):[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mlive[39m[38;5;12m [39m[38;5;12mvideo[39m[38;5;12m [39m[38;5;12mcourse[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mteaches[39m[38;5;12m [39m[38;5;12mhow[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mapply[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mlearning[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mtext[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12musing[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mpowerful[39m[38;5;12m [39m[38;5;12mKeras[39m[38;5;12m [39m[38;5;12mlibrary[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mits[39m[38;5;12m [39m[38;5;12mR[39m[38;5;12m [39m[38;5;12mlanguage[39m[38;5;12m [39m
|
||||
[38;5;12minterface.[39m
|
||||
[38;5;12m22.[39m[38;5;12m [39m[38;5;14m[1mMedical[0m[38;5;14m[1m [0m[38;5;14m[1mImaging[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;14m[1m [0m[38;5;14m[1mTutorial[0m[38;5;12m [39m[38;5;12m(https://www.youtube.com/playlist?list=PLheiZMDg_8ufxEx9cNVcOYXsT3BppJP4b):[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mtutorial[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mstyled[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mgraduate[39m[38;5;12m [39m[38;5;12mlecture[39m[38;5;12m [39m[38;5;12mabout[39m[38;5;12m [39m[38;5;12mmedical[39m[38;5;12m [39m[38;5;12mimaging[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mlearning.[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mwill[39m[38;5;12m [39m[38;5;12mcover[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m
|
||||
[38;5;12mbackground[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mpopular[39m[38;5;12m [39m[38;5;12mmedical[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mdomains[39m[38;5;12m [39m[38;5;12m(chest[39m[38;5;12m [39m[38;5;12mX-ray[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mhistology)[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mmethods[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mtackle[39m[38;5;12m [39m[38;5;12mmulti-modality/view,[39m[38;5;12m [39m[38;5;12msegmentation,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcounting[39m[38;5;12m [39m[38;5;12mtasks.[39m
|
||||
[38;5;12m21. [39m[38;5;14m[1mDeep Learning with R in Motion[0m[38;5;12m (https://www.manning.com/livevideo/deep-learning-with-r-in-motion): a live video course that teaches how to apply deep learning to text and images using the powerful Keras library and its R language interface.[39m
|
||||
[38;5;12m22.[39m[38;5;12m [39m[38;5;14m[1mMedical[0m[38;5;14m[1m [0m[38;5;14m[1mImaging[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;14m[1m [0m[38;5;14m[1mTutorial[0m[38;5;12m [39m[38;5;12m(https://www.youtube.com/playlist?list=PLheiZMDg_8ufxEx9cNVcOYXsT3BppJP4b):[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mtutorial[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mstyled[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mgraduate[39m[38;5;12m [39m[38;5;12mlecture[39m[38;5;12m [39m[38;5;12mabout[39m[38;5;12m [39m[38;5;12mmedical[39m[38;5;12m [39m[38;5;12mimaging[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mlearning.[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mwill[39m[38;5;12m [39m[38;5;12mcover[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mbackground[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m
|
||||
[38;5;12mpopular[39m[38;5;12m [39m[38;5;12mmedical[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mdomains[39m[38;5;12m [39m[38;5;12m(chest[39m[38;5;12m [39m[38;5;12mX-ray[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mhistology)[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mmethods[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mtackle[39m[38;5;12m [39m[38;5;12mmulti-modality/view,[39m[38;5;12m [39m[38;5;12msegmentation,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcounting[39m[38;5;12m [39m[38;5;12mtasks.[39m
|
||||
[38;5;12m23. [39m[38;5;14m[1mDeepmind x UCL Deeplearning[0m[38;5;12m (https://www.youtube.com/playlist?list=PLqYmG7hTraZCDxZ44o4p3N5Anz3lLRVZF): 2020 version [39m
|
||||
[38;5;12m24. [39m[38;5;14m[1mDeepmind x UCL Reinforcement Learning[0m[38;5;12m (https://www.youtube.com/playlist?list=PLqYmG7hTraZBKeNJ-JE_eyJHZ7XgBoAyb): Deep Reinforcement Learning[39m
|
||||
[38;5;12m25. [39m[38;5;14m[1mCMU 11-785 Intro to Deep learning Spring 2020[0m[38;5;12m (https://www.youtube.com/playlist?list=PLp-0K3kfddPzCnS4CqKphh-zT3aDwybDe) Course: 11-785, Intro to Deep Learning by Bhiksha Raj [39m
|
||||
@@ -409,44 +408,44 @@
|
||||
[38;5;12m13. [39m[38;5;14m[1mImage QA[0m[38;5;12m (http://www.cs.toronto.edu/~mren/imageqa/data/cocoqa/)[39m
|
||||
[38;5;12m14. [39m[38;5;14m[1mAT&T Laboratories Cambridge face database[0m[38;5;12m (http://www.uk.research.att.com/facedatabase.html)[39m
|
||||
[38;5;12m15. [39m[38;5;14m[1mAVHRR Pathfinder[0m[38;5;12m (http://xtreme.gsfc.nasa.gov)[39m
|
||||
[38;5;12m16.[39m[38;5;12m [39m[38;5;14m[1mAir[0m[38;5;14m[1m [0m[38;5;14m[1mFreight[0m[38;5;12m [39m[38;5;12m(http://www.anc.ed.ac.uk/~amos/afreightdata.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mAir[39m[38;5;12m [39m[38;5;12mFreight[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mray-traced[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequence[39m[38;5;12m [39m[38;5;12malong[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12msegmentation[39m[38;5;12m [39m[38;5;12mbased[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mtextural[39m[38;5;12m [39m[38;5;12mcharacteristics.[39m[38;5;12m [39m[38;5;12m(455[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12m+[39m[38;5;12m [39m[38;5;12mGT,[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12m160x120[39m[38;5;12m [39m[38;5;12mpixels).[39m[38;5;12m [39m
|
||||
[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mPNG)[39m[38;5;12m [39m
|
||||
[38;5;12m17.[39m[38;5;12m [39m[38;5;14m[1mAmsterdam[0m[38;5;14m[1m [0m[38;5;14m[1mLibrary[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mObject[0m[38;5;14m[1m [0m[38;5;14m[1mImages[0m[38;5;12m [39m[38;5;12m(http://www.science.uva.nl/~aloi/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mALOI[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mone-thousand[39m[38;5;12m [39m[38;5;12msmall[39m[38;5;12m [39m[38;5;12mobjects,[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mscientific[39m[38;5;12m [39m[38;5;12mpurposes.[39m[38;5;12m [39m[38;5;12mIn[39m[38;5;12m [39m[38;5;12morder[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mcapture[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12msensory[39m[38;5;12m [39m[38;5;12mvariation[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m
|
||||
[38;5;12mrecordings,[39m[38;5;12m [39m[38;5;12mwe[39m[38;5;12m [39m[38;5;12msystematically[39m[38;5;12m [39m[38;5;12mvaried[39m[38;5;12m [39m[38;5;12mviewing[39m[38;5;12m [39m[38;5;12mangle,[39m[38;5;12m [39m[38;5;12millumination[39m[38;5;12m [39m[38;5;12mangle,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12millumination[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mobject,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12madditionally[39m[38;5;12m [39m[38;5;12mcaptured[39m[38;5;12m [39m[38;5;12mwide-baseline[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12mWe[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mhundred[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mobject,[39m[38;5;12m [39m[38;5;12myielding[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtotal[39m[38;5;12m [39m[38;5;12mof[39m
|
||||
[38;5;12m110,250[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mcollection.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mpng)[39m
|
||||
[38;5;12m16.[39m[38;5;12m [39m[38;5;14m[1mAir[0m[38;5;14m[1m [0m[38;5;14m[1mFreight[0m[38;5;12m [39m[38;5;12m(http://www.anc.ed.ac.uk/~amos/afreightdata.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mAir[39m[38;5;12m [39m[38;5;12mFreight[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mray-traced[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequence[39m[38;5;12m [39m[38;5;12malong[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12msegmentation[39m[38;5;12m [39m[38;5;12mbased[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mtextural[39m[38;5;12m [39m[38;5;12mcharacteristics.[39m[38;5;12m [39m[38;5;12m(455[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12m+[39m[38;5;12m [39m[38;5;12mGT,[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12m160x120[39m[38;5;12m [39m[38;5;12mpixels).[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m
|
||||
[38;5;12mPNG)[39m[38;5;12m [39m
|
||||
[38;5;12m17.[39m[38;5;12m [39m[38;5;14m[1mAmsterdam[0m[38;5;14m[1m [0m[38;5;14m[1mLibrary[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mObject[0m[38;5;14m[1m [0m[38;5;14m[1mImages[0m[38;5;12m [39m[38;5;12m(http://www.science.uva.nl/~aloi/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mALOI[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mone-thousand[39m[38;5;12m [39m[38;5;12msmall[39m[38;5;12m [39m[38;5;12mobjects,[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mscientific[39m[38;5;12m [39m[38;5;12mpurposes.[39m[38;5;12m [39m[38;5;12mIn[39m[38;5;12m [39m[38;5;12morder[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mcapture[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12msensory[39m[38;5;12m [39m[38;5;12mvariation[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mrecordings,[39m[38;5;12m [39m[38;5;12mwe[39m[38;5;12m [39m
|
||||
[38;5;12msystematically[39m[38;5;12m [39m[38;5;12mvaried[39m[38;5;12m [39m[38;5;12mviewing[39m[38;5;12m [39m[38;5;12mangle,[39m[38;5;12m [39m[38;5;12millumination[39m[38;5;12m [39m[38;5;12mangle,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12millumination[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mobject,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12madditionally[39m[38;5;12m [39m[38;5;12mcaptured[39m[38;5;12m [39m[38;5;12mwide-baseline[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12mWe[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mhundred[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mobject,[39m[38;5;12m [39m[38;5;12myielding[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtotal[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m110,250[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m
|
||||
[38;5;12mcollection.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mpng)[39m
|
||||
[38;5;12m18. [39m[38;5;14m[1mAnnotated face, hand, cardiac & meat images[0m[38;5;12m (http://www.imm.dtu.dk/~aam/) - Most images & annotations are supplemented by various ASM/AAM analyses using the AAM-API. (Formats: bmp,asf)[39m
|
||||
[38;5;12m19. [39m[38;5;14m[1mImage Analysis and Computer Graphics[0m[38;5;12m (http://www.imm.dtu.dk/image/) [39m
|
||||
[38;5;12m21. [39m[38;5;14m[1mBrown University Stimuli[0m[38;5;12m (http://www.cog.brown.edu/~tarr/stimuli.html) - A variety of datasets including geons, objects, and "greebles". Good for testing recognition algorithms. (Formats: pict)[39m
|
||||
[38;5;12m22.[39m[38;5;12m [39m[38;5;14m[1mCAVIAR[0m[38;5;14m[1m [0m[38;5;14m[1mvideo[0m[38;5;14m[1m [0m[38;5;14m[1msequences[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mmall[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mpublic[0m[38;5;14m[1m [0m[38;5;14m[1mspace[0m[38;5;14m[1m [0m[38;5;14m[1mbehavior[0m[38;5;12m [39m[38;5;12m(http://homepages.inf.ed.ac.uk/rbf/CAVIARDATA1/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m90K[39m[38;5;12m [39m[38;5;12mvideo[39m[38;5;12m [39m[38;5;12mframes[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12m90[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mvarious[39m[38;5;12m [39m[38;5;12mhuman[39m[38;5;12m [39m[38;5;12mactivities,[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mXML[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mdetection[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mbehavior[39m[38;5;12m [39m[38;5;12mclassification[39m
|
||||
[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mMPEG2[39m[38;5;12m [39m[38;5;12m&[39m[38;5;12m [39m[38;5;12mJPEG)[39m
|
||||
[38;5;12m22.[39m[38;5;12m [39m[38;5;14m[1mCAVIAR[0m[38;5;14m[1m [0m[38;5;14m[1mvideo[0m[38;5;14m[1m [0m[38;5;14m[1msequences[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mmall[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mpublic[0m[38;5;14m[1m [0m[38;5;14m[1mspace[0m[38;5;14m[1m [0m[38;5;14m[1mbehavior[0m[38;5;12m [39m[38;5;12m(http://homepages.inf.ed.ac.uk/rbf/CAVIARDATA1/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m90K[39m[38;5;12m [39m[38;5;12mvideo[39m[38;5;12m [39m[38;5;12mframes[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12m90[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mvarious[39m[38;5;12m [39m[38;5;12mhuman[39m[38;5;12m [39m[38;5;12mactivities,[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mXML[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mdetection[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mbehavior[39m[38;5;12m [39m[38;5;12mclassification[39m[38;5;12m [39m[38;5;12m(Formats:[39m
|
||||
[38;5;12mMPEG2[39m[38;5;12m [39m[38;5;12m&[39m[38;5;12m [39m[38;5;12mJPEG)[39m
|
||||
[38;5;12m23. [39m[38;5;14m[1mMachine Vision Unit[0m[38;5;12m (http://www.ipab.inf.ed.ac.uk/mvu/)[39m
|
||||
[38;5;12m25. [39m[38;5;14m[1mCCITT Fax standard images[0m[38;5;12m (http://www.cs.waikato.ac.nz/~singlis/ccitt.html) - 8 images (Formats: gif)[39m
|
||||
[38;5;12m26. [39m[38;5;14m[1mCMU CIL's Stereo Data with Ground Truth[0m[38;5;12m (cil-ster.html) - 3 sets of 11 images, including color tiff images with spectroradiometry (Formats: gif, tiff)[39m
|
||||
[38;5;12m27. [39m[38;5;14m[1mCMU PIE Database[0m[38;5;12m (http://www.ri.cmu.edu/projects/project_418.html) - A database of 41,368 face images of 68 people captured under 13 poses, 43 illuminations conditions, and with 4 different expressions.[39m
|
||||
[38;5;12m28. [39m[38;5;14m[1mCMU VASC Image Database[0m[38;5;12m (http://www.ius.cs.cmu.edu/idb/) - Images, sequences, stereo pairs (thousands of images) (Formats: Sun Rasterimage)[39m
|
||||
[38;5;12m29. [39m[38;5;14m[1mCaltech Image Database[0m[38;5;12m (http://www.vision.caltech.edu/html-files/archive.html) - about 20 images - mostly top-down views of small objects and toys. (Formats: GIF)[39m
|
||||
[38;5;12m30.[39m[38;5;12m [39m[38;5;14m[1mColumbia-Utrecht[0m[38;5;14m[1m [0m[38;5;14m[1mReflectance[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.cs.columbia.edu/CAVE/curet/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mTexture[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mreflectance[39m[38;5;12m [39m[38;5;12mmeasurements[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m60[39m[38;5;12m [39m[38;5;12msamples[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mtexture,[39m[38;5;12m [39m[38;5;12mobserved[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m200[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mcombinations[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mviewing[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m
|
||||
[38;5;12millumination[39m[38;5;12m [39m[38;5;12mdirections.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mbmp)[39m
|
||||
[38;5;12m31.[39m[38;5;12m [39m[38;5;14m[1mComputational[0m[38;5;14m[1m [0m[38;5;14m[1mColour[0m[38;5;14m[1m [0m[38;5;14m[1mConstancy[0m[38;5;14m[1m [0m[38;5;14m[1mData[0m[38;5;12m [39m[38;5;12m(http://www.cs.sfu.ca/~colour/data/index.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12moriented[39m[38;5;12m [39m[38;5;12mtowards[39m[38;5;12m [39m[38;5;12mcomputational[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mconstancy,[39m[38;5;12m [39m[38;5;12mbut[39m[38;5;12m [39m[38;5;12museful[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mcomputer[39m[38;5;12m [39m[38;5;12mvision[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mgeneral.[39m[38;5;12m [39m[38;5;12mIt[39m[38;5;12m [39m[38;5;12mincludes[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mdata,[39m[38;5;12m [39m[38;5;12mcamera[39m[38;5;12m [39m[38;5;12msensor[39m[38;5;12m [39m
|
||||
[38;5;12mdata,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m700[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m30.[39m[38;5;12m [39m[38;5;14m[1mColumbia-Utrecht[0m[38;5;14m[1m [0m[38;5;14m[1mReflectance[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.cs.columbia.edu/CAVE/curet/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mTexture[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mreflectance[39m[38;5;12m [39m[38;5;12mmeasurements[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m60[39m[38;5;12m [39m[38;5;12msamples[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mtexture,[39m[38;5;12m [39m[38;5;12mobserved[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m200[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mcombinations[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mviewing[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12millumination[39m[38;5;12m [39m
|
||||
[38;5;12mdirections.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mbmp)[39m
|
||||
[38;5;12m31.[39m[38;5;12m [39m[38;5;14m[1mComputational[0m[38;5;14m[1m [0m[38;5;14m[1mColour[0m[38;5;14m[1m [0m[38;5;14m[1mConstancy[0m[38;5;14m[1m [0m[38;5;14m[1mData[0m[38;5;12m [39m[38;5;12m(http://www.cs.sfu.ca/~colour/data/index.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12moriented[39m[38;5;12m [39m[38;5;12mtowards[39m[38;5;12m [39m[38;5;12mcomputational[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mconstancy,[39m[38;5;12m [39m[38;5;12mbut[39m[38;5;12m [39m[38;5;12museful[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mcomputer[39m[38;5;12m [39m[38;5;12mvision[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mgeneral.[39m[38;5;12m [39m[38;5;12mIt[39m[38;5;12m [39m[38;5;12mincludes[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mdata,[39m[38;5;12m [39m[38;5;12mcamera[39m[38;5;12m [39m[38;5;12msensor[39m[38;5;12m [39m[38;5;12mdata,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mover[39m
|
||||
[38;5;12m700[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m32. [39m[38;5;14m[1mComputational Vision Lab[0m[38;5;12m (http://www.cs.sfu.ca/~colour/)[39m
|
||||
[38;5;12m34.[39m[38;5;12m [39m[38;5;14m[1mContent-based[0m[38;5;14m[1m [0m[38;5;14m[1mimage[0m[38;5;14m[1m [0m[38;5;14m[1mretrieval[0m[38;5;14m[1m [0m[38;5;14m[1mdatabase[0m[38;5;12m [39m[38;5;12m(http://www.cs.washington.edu/research/imagedatabase/groundtruth/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m11[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mcontent-based[39m[38;5;12m [39m[38;5;12mretrieval.[39m[38;5;12m [39m[38;5;12mMost[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mhave[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mdescription[39m[38;5;12m [39m[38;5;12mfile[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mnames[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m
|
||||
[38;5;12mobjects[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mimage.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mjpg)[39m
|
||||
[38;5;12m34.[39m[38;5;12m [39m[38;5;14m[1mContent-based[0m[38;5;14m[1m [0m[38;5;14m[1mimage[0m[38;5;14m[1m [0m[38;5;14m[1mretrieval[0m[38;5;14m[1m [0m[38;5;14m[1mdatabase[0m[38;5;12m [39m[38;5;12m(http://www.cs.washington.edu/research/imagedatabase/groundtruth/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m11[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mcontent-based[39m[38;5;12m [39m[38;5;12mretrieval.[39m[38;5;12m [39m[38;5;12mMost[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mhave[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mdescription[39m[38;5;12m [39m[38;5;12mfile[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mnames[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12min[39m
|
||||
[38;5;12meach[39m[38;5;12m [39m[38;5;12mimage.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mjpg)[39m
|
||||
[38;5;12m35. [39m[38;5;14m[1mEfficient Content-based Retrieval Group[0m[38;5;12m (http://www.cs.washington.edu/research/imagedatabase/)[39m
|
||||
[38;5;12m37.[39m[38;5;12m [39m[38;5;14m[1mDensely[0m[38;5;14m[1m [0m[38;5;14m[1mSampled[0m[38;5;14m[1m [0m[38;5;14m[1mView[0m[38;5;14m[1m [0m[38;5;14m[1mSpheres[0m[38;5;12m [39m[38;5;12m(http://ls7-www.cs.uni-dortmund.de/~peters/pages/research/modeladaptsys/modeladaptsys_vba_rov.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDensely[39m[38;5;12m [39m[38;5;12msampled[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12mspheres[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mupper[39m[38;5;12m [39m[38;5;12mhalf[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12msphere[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mtwo[39m[38;5;12m [39m[38;5;12mtoy[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m2500[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m
|
||||
[38;5;12meach.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m37.[39m[38;5;12m [39m[38;5;14m[1mDensely[0m[38;5;14m[1m [0m[38;5;14m[1mSampled[0m[38;5;14m[1m [0m[38;5;14m[1mView[0m[38;5;14m[1m [0m[38;5;14m[1mSpheres[0m[38;5;12m [39m[38;5;12m(http://ls7-www.cs.uni-dortmund.de/~peters/pages/research/modeladaptsys/modeladaptsys_vba_rov.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDensely[39m[38;5;12m [39m[38;5;12msampled[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12mspheres[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mupper[39m[38;5;12m [39m[38;5;12mhalf[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12msphere[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mtwo[39m[38;5;12m [39m[38;5;12mtoy[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m2500[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12meach.[39m[38;5;12m [39m
|
||||
[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m38. [39m[38;5;14m[1mComputer Science VII (Graphical Systems)[0m[38;5;12m (http://ls7-www.cs.uni-dortmund.de/)[39m
|
||||
[38;5;12m40.[39m[38;5;12m [39m[38;5;14m[1mDigital[0m[38;5;14m[1m [0m[38;5;14m[1mEmbryos[0m[38;5;12m [39m[38;5;12m(https://web-beta.archive.org/web/20011216051535/vision.psych.umn.edu/www/kersten-lab/demos/digitalembryo.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDigital[39m[38;5;12m [39m[38;5;12membryos[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mnovel[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mwhich[39m[38;5;12m [39m[38;5;12mmay[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mdevelop[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mrecognition[39m[38;5;12m [39m[38;5;12msystems.[39m[38;5;12m [39m
|
||||
[38;5;12mThey[39m[38;5;12m [39m[38;5;12mhave[39m[38;5;12m [39m[38;5;12man[39m[38;5;12m [39m[38;5;12morganic[39m[38;5;12m [39m[38;5;12mappearance.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mvarious[39m[38;5;12m [39m[38;5;12mformats[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mavailable[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mrequest)[39m
|
||||
[38;5;12m40.[39m[38;5;12m [39m[38;5;14m[1mDigital[0m[38;5;14m[1m [0m[38;5;14m[1mEmbryos[0m[38;5;12m [39m[38;5;12m(https://web-beta.archive.org/web/20011216051535/vision.psych.umn.edu/www/kersten-lab/demos/digitalembryo.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDigital[39m[38;5;12m [39m[38;5;12membryos[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mnovel[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mwhich[39m[38;5;12m [39m[38;5;12mmay[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mdevelop[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mrecognition[39m[38;5;12m [39m[38;5;12msystems.[39m[38;5;12m [39m[38;5;12mThey[39m[38;5;12m [39m[38;5;12mhave[39m[38;5;12m [39m[38;5;12man[39m
|
||||
[38;5;12morganic[39m[38;5;12m [39m[38;5;12mappearance.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mvarious[39m[38;5;12m [39m[38;5;12mformats[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mavailable[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mrequest)[39m
|
||||
[38;5;12m41. [39m[38;5;14m[1mUniverity of Minnesota Vision Lab[0m[38;5;12m (http://vision.psych.umn.edu/users/kersten//kersten-lab/kersten-lab.html) [39m
|
||||
[38;5;12m42. [39m[38;5;14m[1mEl Salvador Atlas of Gastrointestinal VideoEndoscopy[0m[38;5;12m (http://www.gastrointestinalatlas.com) - Images and Videos of his-res of studies taken from Gastrointestinal Video endoscopy. (Formats: jpg, mpg, gif)[39m
|
||||
[38;5;12m43. [39m[38;5;14m[1mFG-NET Facial Aging Database[0m[38;5;12m (http://sting.cycollege.ac.cy/~alanitis/fgnetaging/index.htm) - Database contains 1002 face images showing subjects at different ages. (Formats: jpg)[39m
|
||||
[38;5;12m44.[39m[38;5;12m [39m[38;5;14m[1mFVC2000[0m[38;5;14m[1m [0m[38;5;14m[1mFingerprint[0m[38;5;14m[1m [0m[38;5;14m[1mDatabases[0m[38;5;12m [39m[38;5;12m(http://bias.csr.unibo.it/fvc2000/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mFVC2000[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mFirst[39m[38;5;12m [39m[38;5;12mInternational[39m[38;5;12m [39m[38;5;12mCompetition[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mFingerprint[39m[38;5;12m [39m[38;5;12mVerification[39m[38;5;12m [39m[38;5;12mAlgorithms.[39m[38;5;12m [39m[38;5;12mFour[39m[38;5;12m [39m[38;5;12mfingerprint[39m[38;5;12m [39m[38;5;12mdatabases[39m[38;5;12m [39m[38;5;12mconstitute[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mFVC2000[39m[38;5;12m [39m[38;5;12mbenchmark[39m[38;5;12m [39m[38;5;12m(3520[39m[38;5;12m [39m
|
||||
[38;5;12mfingerprints[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mall).[39m
|
||||
[38;5;12m44.[39m[38;5;12m [39m[38;5;14m[1mFVC2000[0m[38;5;14m[1m [0m[38;5;14m[1mFingerprint[0m[38;5;14m[1m [0m[38;5;14m[1mDatabases[0m[38;5;12m [39m[38;5;12m(http://bias.csr.unibo.it/fvc2000/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mFVC2000[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mFirst[39m[38;5;12m [39m[38;5;12mInternational[39m[38;5;12m [39m[38;5;12mCompetition[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mFingerprint[39m[38;5;12m [39m[38;5;12mVerification[39m[38;5;12m [39m[38;5;12mAlgorithms.[39m[38;5;12m [39m[38;5;12mFour[39m[38;5;12m [39m[38;5;12mfingerprint[39m[38;5;12m [39m[38;5;12mdatabases[39m[38;5;12m [39m[38;5;12mconstitute[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mFVC2000[39m[38;5;12m [39m[38;5;12mbenchmark[39m[38;5;12m [39m[38;5;12m(3520[39m[38;5;12m [39m[38;5;12mfingerprints[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m
|
||||
[38;5;12mall).[39m
|
||||
[38;5;12m45. [39m[38;5;14m[1mBiometric Systems Lab[0m[38;5;12m (http://biolab.csr.unibo.it/home.asp) - University of Bologna[39m
|
||||
[38;5;12m46. [39m[38;5;14m[1mFace and Gesture images and image sequences[0m[38;5;12m (http://www.fg-net.org) - Several image datasets of faces and gestures that are ground truth annotated for benchmarking[39m
|
||||
[38;5;12m47.[39m[38;5;12m [39m[38;5;14m[1mGerman[0m[38;5;14m[1m [0m[38;5;14m[1mFingerspelling[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www-i6.informatik.rwth-aachen.de/~dreuw/database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m35[39m[38;5;12m [39m[38;5;12mgestures[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mconsists[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m1400[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mcontain[39m[38;5;12m [39m[38;5;12mgestures[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m20[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mpersons[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m
|
||||
[38;5;12mnon-uniform[39m[38;5;12m [39m[38;5;12mdaylight[39m[38;5;12m [39m[38;5;12mlighting[39m[38;5;12m [39m[38;5;12mconditions.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mmpg,jpg)[39m[38;5;12m [39m
|
||||
[38;5;12m47.[39m[38;5;12m [39m[38;5;14m[1mGerman[0m[38;5;14m[1m [0m[38;5;14m[1mFingerspelling[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www-i6.informatik.rwth-aachen.de/~dreuw/database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m35[39m[38;5;12m [39m[38;5;12mgestures[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mconsists[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m1400[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mcontain[39m[38;5;12m [39m[38;5;12mgestures[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m20[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mpersons[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mnon-uniform[39m[38;5;12m [39m
|
||||
[38;5;12mdaylight[39m[38;5;12m [39m[38;5;12mlighting[39m[38;5;12m [39m[38;5;12mconditions.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mmpg,jpg)[39m[38;5;12m [39m
|
||||
[38;5;12m48. [39m[38;5;14m[1mLanguage Processing and Pattern Recognition[0m[38;5;12m (http://www-i6.informatik.rwth-aachen.de/)[39m
|
||||
[38;5;12m50. [39m[38;5;14m[1mGroningen Natural Image Database[0m[38;5;12m (http://hlab.phys.rug.nl/archive.html) - 4000+ 1536x1024 (16 bit) calibrated outdoor images (Formats: homebrew)[39m
|
||||
[38;5;12m51. [39m[38;5;14m[1mICG Testhouse sequence[0m[38;5;12m (http://www.icg.tu-graz.ac.at/~schindler/Data) - 2 turntable sequences from different viewing heights, 36 images each, resolution 1000x750, color (Formats: PPM)[39m
|
||||
@@ -458,19 +457,19 @@
|
||||
[38;5;12m58. [39m[38;5;14m[1mImage Analysis Laboratory[0m[38;5;12m (http://www.ece.ncsu.edu/imaging/Archives/ImageDataBase/index.html) - Images obtained from a variety of imaging modalities -- raw CFA images, range images and a host of "medical images". (Formats: homebrew)[39m
|
||||
[38;5;12m59. [39m[38;5;14m[1mImage Analysis Laboratory[0m[38;5;12m (http://www.ece.ncsu.edu/imaging)[39m
|
||||
[38;5;12m61. [39m[38;5;14m[1mImage Database[0m[38;5;12m (http://www.prip.tuwien.ac.at/prip/image.html) - An image database including some textures [39m
|
||||
[38;5;12m62.[39m[38;5;12m [39m[38;5;14m[1mJAFFE[0m[38;5;14m[1m [0m[38;5;14m[1mFacial[0m[38;5;14m[1m [0m[38;5;14m[1mExpression[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.mis.atr.co.jp/~mlyons/jaffe.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mJAFFE[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mconsists[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m213[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mJapanese[39m[38;5;12m [39m[38;5;12mfemale[39m[38;5;12m [39m[38;5;12msubjects[39m[38;5;12m [39m[38;5;12mposing[39m[38;5;12m [39m[38;5;12m6[39m[38;5;12m [39m[38;5;12mbasic[39m[38;5;12m [39m[38;5;12mfacial[39m[38;5;12m [39m[38;5;12mexpressions[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mneutral[39m[38;5;12m [39m[38;5;12mpose.[39m[38;5;12m [39m[38;5;12mRatings[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m
|
||||
[38;5;12memotion[39m[38;5;12m [39m[38;5;12madjectives[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12malso[39m[38;5;12m [39m[38;5;12mavailable,[39m[38;5;12m [39m[38;5;12mfree[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mcharge,[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mresearch[39m[38;5;12m [39m[38;5;12mpurposes.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF[39m[38;5;12m [39m[38;5;12mGrayscale[39m[38;5;12m [39m[38;5;12mimages.)[39m
|
||||
[38;5;12m62.[39m[38;5;12m [39m[38;5;14m[1mJAFFE[0m[38;5;14m[1m [0m[38;5;14m[1mFacial[0m[38;5;14m[1m [0m[38;5;14m[1mExpression[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.mis.atr.co.jp/~mlyons/jaffe.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mJAFFE[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mconsists[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m213[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mJapanese[39m[38;5;12m [39m[38;5;12mfemale[39m[38;5;12m [39m[38;5;12msubjects[39m[38;5;12m [39m[38;5;12mposing[39m[38;5;12m [39m[38;5;12m6[39m[38;5;12m [39m[38;5;12mbasic[39m[38;5;12m [39m[38;5;12mfacial[39m[38;5;12m [39m[38;5;12mexpressions[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mneutral[39m[38;5;12m [39m[38;5;12mpose.[39m[38;5;12m [39m[38;5;12mRatings[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12memotion[39m[38;5;12m [39m
|
||||
[38;5;12madjectives[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12malso[39m[38;5;12m [39m[38;5;12mavailable,[39m[38;5;12m [39m[38;5;12mfree[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mcharge,[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mresearch[39m[38;5;12m [39m[38;5;12mpurposes.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF[39m[38;5;12m [39m[38;5;12mGrayscale[39m[38;5;12m [39m[38;5;12mimages.)[39m
|
||||
[38;5;12m63. [39m[38;5;14m[1mATR Research, Kyoto, Japan[0m[38;5;12m (http://www.mic.atr.co.jp/)[39m
|
||||
[38;5;12m64.[39m[38;5;12m [39m[38;5;14m[1mJISCT[0m[38;5;14m[1m [0m[38;5;14m[1mStereo[0m[38;5;14m[1m [0m[38;5;14m[1mEvaluation[0m[38;5;12m [39m[38;5;12m(ftp://ftp.vislist.com/IMAGERY/JISCT/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m44[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mpairs.[39m[38;5;12m [39m[38;5;12mThese[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mhave[39m[38;5;12m [39m[38;5;12mbeen[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12man[39m[38;5;12m [39m[38;5;12mevaluation[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12manalysis,[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mdescribed[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mApril[39m[38;5;12m [39m[38;5;12m1993[39m[38;5;12m [39m[38;5;12mARPA[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mUnderstanding[39m[38;5;12m [39m[38;5;12mWorkshop[39m[38;5;12m [39m[38;5;12mpaper[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mJISCT[39m[38;5;12m [39m[38;5;12mStereo[39m[38;5;12m [39m
|
||||
[38;5;12mEvaluation''[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mR.C.Bolles,[39m[38;5;12m [39m[38;5;12mH.H.Baker,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mM.J.Hannah,[39m[38;5;12m [39m[38;5;12m263--274[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mSSI)[39m
|
||||
[38;5;12m65. [39m[38;5;14m[1mMIT Vision Texture[0m[38;5;12m (https://vismod.media.mit.edu/vismod/imagery/VisionTexture/vistex.html) - Image archive (100+ images) (Formats: ppm)[39m
|
||||
[38;5;12m66. [39m[38;5;14m[1mMIT face images and more[0m[38;5;12m (ftp://whitechapel.media.mit.edu/pub/images) - hundreds of images (Formats: homebrew)[39m
|
||||
[38;5;12m67. [39m[38;5;14m[1mMachine Vision[0m[38;5;12m (http://vision.cse.psu.edu/book/testbed/images/) - Images from the textbook by Jain, Kasturi, Schunck (20+ images) (Formats: GIF TIFF)[39m
|
||||
[38;5;12m68.[39m[38;5;12m [39m[38;5;14m[1mMammography[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mDatabases[0m[38;5;12m [39m[38;5;12m(http://marathon.csee.usf.edu/Mammography/Database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m100[39m[38;5;12m [39m[38;5;12mor[39m[38;5;12m [39m[38;5;12mmore[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mmammograms[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth.[39m[38;5;12m [39m[38;5;12mAdditional[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mavailable[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mrequest,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mlinks[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12mother[39m[38;5;12m [39m[38;5;12mmammography[39m[38;5;12m [39m[38;5;12mdatabases[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m
|
||||
[38;5;12mprovided.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mhomebrew)[39m
|
||||
[38;5;12m68.[39m[38;5;12m [39m[38;5;14m[1mMammography[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mDatabases[0m[38;5;12m [39m[38;5;12m(http://marathon.csee.usf.edu/Mammography/Database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m100[39m[38;5;12m [39m[38;5;12mor[39m[38;5;12m [39m[38;5;12mmore[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mmammograms[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth.[39m[38;5;12m [39m[38;5;12mAdditional[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mavailable[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mrequest,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mlinks[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12mother[39m[38;5;12m [39m[38;5;12mmammography[39m[38;5;12m [39m[38;5;12mdatabases[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mprovided.[39m[38;5;12m [39m
|
||||
[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mhomebrew)[39m
|
||||
[38;5;12m69. [39m[38;5;14m[1mftp://ftp.cps.msu.edu/pub/prip[0m[38;5;12m (ftp://ftp.cps.msu.edu/pub/prip) - many images (Formats: unknown)[39m
|
||||
[38;5;12m70.[39m[38;5;12m [39m[38;5;14m[1mMiddlebury[0m[38;5;14m[1m [0m[38;5;14m[1mStereo[0m[38;5;14m[1m [0m[38;5;14m[1mData[0m[38;5;14m[1m [0m[38;5;14m[1mSets[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mGround[0m[38;5;14m[1m [0m[38;5;14m[1mTruth[0m[38;5;12m [39m[38;5;12m(http://www.middlebury.edu/stereo/data.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSix[39m[38;5;12m [39m[38;5;12mmulti-frame[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mscenes[39m[38;5;12m [39m[38;5;12mcontaining[39m[38;5;12m [39m[38;5;12mplanar[39m[38;5;12m [39m[38;5;12mregions.[39m[38;5;12m [39m[38;5;12mEach[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m9[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12msubpixel-accuracy[39m[38;5;12m [39m
|
||||
[38;5;12mground-truth[39m[38;5;12m [39m[38;5;12mdata.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm)[39m
|
||||
[38;5;12m70.[39m[38;5;12m [39m[38;5;14m[1mMiddlebury[0m[38;5;14m[1m [0m[38;5;14m[1mStereo[0m[38;5;14m[1m [0m[38;5;14m[1mData[0m[38;5;14m[1m [0m[38;5;14m[1mSets[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mGround[0m[38;5;14m[1m [0m[38;5;14m[1mTruth[0m[38;5;12m [39m[38;5;12m(http://www.middlebury.edu/stereo/data.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSix[39m[38;5;12m [39m[38;5;12mmulti-frame[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mscenes[39m[38;5;12m [39m[38;5;12mcontaining[39m[38;5;12m [39m[38;5;12mplanar[39m[38;5;12m [39m[38;5;12mregions.[39m[38;5;12m [39m[38;5;12mEach[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m9[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12msubpixel-accuracy[39m[38;5;12m [39m[38;5;12mground-truth[39m[38;5;12m [39m[38;5;12mdata.[39m[38;5;12m [39m
|
||||
[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm)[39m
|
||||
[38;5;12m71. [39m[38;5;14m[1mMiddlebury Stereo Vision Research Page[0m[38;5;12m (http://www.middlebury.edu/stereo) - Middlebury College[39m
|
||||
[38;5;12m72. [39m[38;5;14m[1mModis Airborne simulator, Gallery and data set[0m[38;5;12m (http://ltpwww.gsfc.nasa.gov/MODIS/MAS/) - High Altitude Imagery from around the world for environmental modeling in support of NASA EOS program (Formats: JPG and HDF)[39m
|
||||
[38;5;12m73. [39m[38;5;14m[1mNIST Fingerprint and handwriting[0m[38;5;12m (ftp://sequoyah.ncsl.nist.gov/pub/databases/data) - datasets - thousands of images (Formats: unknown)[39m
|
||||
@@ -480,32 +479,31 @@
|
||||
[38;5;12m77. [39m[38;5;14m[1mGeometric & Intelligent Computing Laboratory[0m[38;5;12m (http://gicl.mcs.drexel.edu)[39m
|
||||
[38;5;12m79. [39m[38;5;14m[1mOSU (MSU) 3D Object Model Database[0m[38;5;12m (http://eewww.eng.ohio-state.edu/~flynn/3DDB/Models/) - several sets of 3D object models collected over several years to use in object recognition research (Formats: homebrew, vrml)[39m
|
||||
[38;5;12m80. [39m[38;5;14m[1mOSU (MSU/WSU) Range Image Database[0m[38;5;12m (http://eewww.eng.ohio-state.edu/~flynn/3DDB/RID/) - Hundreds of real and synthetic images (Formats: gif, homebrew)[39m
|
||||
[38;5;12m81.[39m[38;5;12m [39m[38;5;14m[1mOSU/SAMPL[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase:[0m[38;5;14m[1m [0m[38;5;14m[1mRange[0m[38;5;14m[1m [0m[38;5;14m[1mImages,[0m[38;5;14m[1m [0m[38;5;14m[1m3D[0m[38;5;14m[1m [0m[38;5;14m[1mModels,[0m[38;5;14m[1m [0m[38;5;14m[1mStills,[0m[38;5;14m[1m [0m[38;5;14m[1mMotion[0m[38;5;14m[1m [0m[38;5;14m[1mSequences[0m[38;5;12m [39m[38;5;12m(http://sampl.eng.ohio-state.edu/~sampl/database.htm)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mOver[39m[38;5;12m [39m[38;5;12m1000[39m[38;5;12m [39m[38;5;12mrange[39m[38;5;12m [39m[38;5;12mimages,[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mmodels,[39m[38;5;12m [39m[38;5;12mstill[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mmotion[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mgif,[39m[38;5;12m [39m[38;5;12mppm,[39m[38;5;12m [39m[38;5;12mvrml,[39m[38;5;12m [39m
|
||||
[38;5;12mhomebrew)[39m
|
||||
[38;5;12m81. [39m[38;5;14m[1mOSU/SAMPL Database: Range Images, 3D Models, Stills, Motion Sequences[0m[38;5;12m (http://sampl.eng.ohio-state.edu/~sampl/database.htm) - Over 1000 range images, 3D object models, still images and motion sequences (Formats: gif, ppm, vrml, homebrew)[39m
|
||||
[38;5;12m82. [39m[38;5;14m[1mSignal Analysis and Machine Perception Laboratory[0m[38;5;12m (http://sampl.eng.ohio-state.edu)[39m
|
||||
[38;5;12m84.[39m[38;5;12m [39m[38;5;14m[1mOtago[0m[38;5;14m[1m [0m[38;5;14m[1mOptical[0m[38;5;14m[1m [0m[38;5;14m[1mFlow[0m[38;5;14m[1m [0m[38;5;14m[1mEvaluation[0m[38;5;14m[1m [0m[38;5;14m[1mSequences[0m[38;5;12m [39m[38;5;12m(http://www.cs.otago.ac.nz/research/vision/Research/OpticalFlow/opticalflow.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSynthetic[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mmachine-readable[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12moptical[39m[38;5;12m [39m[38;5;12mflow[39m[38;5;12m [39m[38;5;12mfields,[39m[38;5;12m [39m[38;5;12mplus[39m[38;5;12m [39m[38;5;12mtools[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mgenerate[39m[38;5;12m [39m
|
||||
[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mnew[39m[38;5;12m [39m[38;5;12msequences.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm,tif,homebrew)[39m
|
||||
[38;5;12m84.[39m[38;5;12m [39m[38;5;14m[1mOtago[0m[38;5;14m[1m [0m[38;5;14m[1mOptical[0m[38;5;14m[1m [0m[38;5;14m[1mFlow[0m[38;5;14m[1m [0m[38;5;14m[1mEvaluation[0m[38;5;14m[1m [0m[38;5;14m[1mSequences[0m[38;5;12m [39m[38;5;12m(http://www.cs.otago.ac.nz/research/vision/Research/OpticalFlow/opticalflow.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSynthetic[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mmachine-readable[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12moptical[39m[38;5;12m [39m[38;5;12mflow[39m[38;5;12m [39m[38;5;12mfields,[39m[38;5;12m [39m[38;5;12mplus[39m[38;5;12m [39m[38;5;12mtools[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mgenerate[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m
|
||||
[38;5;12mtruth[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mnew[39m[38;5;12m [39m[38;5;12msequences.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm,tif,homebrew)[39m
|
||||
[38;5;12m85. [39m[38;5;14m[1mVision Research Group[0m[38;5;12m (http://www.cs.otago.ac.nz/research/vision/index.html)[39m
|
||||
[38;5;12m87.[39m[38;5;12m [39m[38;5;14m[1mftp://ftp.limsi.fr/pub/quenot/opflow/testdata/piv/[0m[38;5;12m [39m[38;5;12m(ftp://ftp.limsi.fr/pub/quenot/opflow/testdata/piv/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mReal[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mParticle[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mVelocimetry[39m[38;5;12m [39m[38;5;12mapplication.[39m[38;5;12m [39m[38;5;12mThese[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mmay[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthe[39m
|
||||
[38;5;12mtest[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12moptical[39m[38;5;12m [39m[38;5;12mflow[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mmatching[39m[38;5;12m [39m[38;5;12malgorithms.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mpgm[39m[38;5;12m [39m[38;5;12m(raw))[39m
|
||||
[38;5;12m87.[39m[38;5;12m [39m[38;5;14m[1mftp://ftp.limsi.fr/pub/quenot/opflow/testdata/piv/[0m[38;5;12m [39m[38;5;12m(ftp://ftp.limsi.fr/pub/quenot/opflow/testdata/piv/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mReal[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mParticle[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mVelocimetry[39m[38;5;12m [39m[38;5;12mapplication.[39m[38;5;12m [39m[38;5;12mThese[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mmay[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m
|
||||
[38;5;12moptical[39m[38;5;12m [39m[38;5;12mflow[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mmatching[39m[38;5;12m [39m[38;5;12malgorithms.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mpgm[39m[38;5;12m [39m[38;5;12m(raw))[39m
|
||||
[38;5;12m88. [39m[38;5;14m[1mLIMSI-CNRS/CHM/IMM/vision[0m[38;5;12m (http://www.limsi.fr/Recherche/IMM/PageIMM.html)[39m
|
||||
[38;5;12m89. [39m[38;5;14m[1mLIMSI-CNRS[0m[38;5;12m (http://www.limsi.fr/)[39m
|
||||
[38;5;12m90.[39m[38;5;12m [39m[38;5;14m[1mPhotometric[0m[38;5;14m[1m [0m[38;5;14m[1m3D[0m[38;5;14m[1m [0m[38;5;14m[1mSurface[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.taurusstudio.net/research/pmtexdb/index.htm)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mfirst[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mtexture[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mwhich[39m[38;5;12m [39m[38;5;12mprovides[39m[38;5;12m [39m[38;5;12mboth[39m[38;5;12m [39m[38;5;12mfull[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12msurface[39m[38;5;12m [39m[38;5;12mrotations[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mregistered[39m[38;5;12m [39m[38;5;12mphotometric[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12m(30[39m[38;5;12m [39m
|
||||
[38;5;12mtextures,[39m[38;5;12m [39m[38;5;12m1680[39m[38;5;12m [39m[38;5;12mimages).[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF)[39m
|
||||
[38;5;12m90.[39m[38;5;12m [39m[38;5;14m[1mPhotometric[0m[38;5;14m[1m [0m[38;5;14m[1m3D[0m[38;5;14m[1m [0m[38;5;14m[1mSurface[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.taurusstudio.net/research/pmtexdb/index.htm)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mfirst[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mtexture[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mwhich[39m[38;5;12m [39m[38;5;12mprovides[39m[38;5;12m [39m[38;5;12mboth[39m[38;5;12m [39m[38;5;12mfull[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12msurface[39m[38;5;12m [39m[38;5;12mrotations[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mregistered[39m[38;5;12m [39m[38;5;12mphotometric[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12m(30[39m[38;5;12m [39m[38;5;12mtextures,[39m[38;5;12m [39m[38;5;12m1680[39m
|
||||
[38;5;12mimages).[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF)[39m
|
||||
[38;5;12m91. [39m[38;5;14m[1mSEQUENCES FOR OPTICAL FLOW ANALYSIS (SOFA)[0m[38;5;12m (http://www.cee.hw.ac.uk/~mtc/sofa) - 9 synthetic sequences designed for testing motion analysis applications, including full ground truth of motion and camera parameters. (Formats: gif)[39m
|
||||
[38;5;12m92. [39m[38;5;14m[1mComputer Vision Group[0m[38;5;12m (http://www.cee.hw.ac.uk/~mtc/research.html)[39m
|
||||
[38;5;12m94. [39m[38;5;14m[1mSequences for Flow Based Reconstruction[0m[38;5;12m (http://www.nada.kth.se/~zucch/CAMERA/PUB/seq.html) - synthetic sequence for testing structure from motion algorithms (Formats: pgm)[39m
|
||||
[38;5;12m95.[39m[38;5;12m [39m[38;5;14m[1mStereo[0m[38;5;14m[1m [0m[38;5;14m[1mImages[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mGround[0m[38;5;14m[1m [0m[38;5;14m[1mTruth[0m[38;5;14m[1m [0m[38;5;14m[1mDisparity[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mOcclusion[0m[38;5;12m [39m[38;5;12m(http://www-dbv.cs.uni-bonn.de/stereo_data/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12msmall[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mhallway[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mvarying[39m[38;5;12m [39m[38;5;12mamounts[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mnoise[39m[38;5;12m [39m[38;5;12madded.[39m[38;5;12m [39m[38;5;12mUse[39m[38;5;12m [39m[38;5;12mthese[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mbenchmark[39m[38;5;12m [39m[38;5;12myour[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m
|
||||
[38;5;12malgorithm.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mraw,[39m[38;5;12m [39m[38;5;12mviff[39m[38;5;12m [39m[38;5;12m(khoros),[39m[38;5;12m [39m[38;5;12mor[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m95.[39m[38;5;12m [39m[38;5;14m[1mStereo[0m[38;5;14m[1m [0m[38;5;14m[1mImages[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mGround[0m[38;5;14m[1m [0m[38;5;14m[1mTruth[0m[38;5;14m[1m [0m[38;5;14m[1mDisparity[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mOcclusion[0m[38;5;12m [39m[38;5;12m(http://www-dbv.cs.uni-bonn.de/stereo_data/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12msmall[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mhallway[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mvarying[39m[38;5;12m [39m[38;5;12mamounts[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mnoise[39m[38;5;12m [39m[38;5;12madded.[39m[38;5;12m [39m[38;5;12mUse[39m[38;5;12m [39m[38;5;12mthese[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mbenchmark[39m[38;5;12m [39m[38;5;12myour[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12malgorithm.[39m[38;5;12m [39m
|
||||
[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mraw,[39m[38;5;12m [39m[38;5;12mviff[39m[38;5;12m [39m[38;5;12m(khoros),[39m[38;5;12m [39m[38;5;12mor[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m96. [39m[38;5;14m[1mStuttgart Range Image Database[0m[38;5;12m (http://range.informatik.uni-stuttgart.de) - A collection of synthetic range images taken from high-resolution polygonal models available on the web (Formats: homebrew)[39m
|
||||
[38;5;12m97. [39m[38;5;14m[1mDepartment Image Understanding[0m[38;5;12m (http://www.informatik.uni-stuttgart.de/ipvr/bv/bv_home_engl.html)[39m
|
||||
[38;5;12m99.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mAR[0m[38;5;14m[1m [0m[38;5;14m[1mFace[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www2.ece.ohio-state.edu/~aleix/ARdatabase.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mContains[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m4,000[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mcorresponding[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12m126[39m[38;5;12m [39m[38;5;12mpeople's[39m[38;5;12m [39m[38;5;12mfaces[39m[38;5;12m [39m[38;5;12m(70[39m[38;5;12m [39m[38;5;12mmen[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12m56[39m[38;5;12m [39m[38;5;12mwomen).[39m[38;5;12m [39m[38;5;12mFrontal[39m[38;5;12m [39m[38;5;12mviews[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mvariations[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mfacial[39m[38;5;12m [39m[38;5;12mexpressions,[39m[38;5;12m [39m
|
||||
[38;5;12millumination,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mocclusions.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mRAW[39m[38;5;12m [39m[38;5;12m(RGB[39m[38;5;12m [39m[38;5;12m24-bit))[39m
|
||||
[38;5;12m99.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mAR[0m[38;5;14m[1m [0m[38;5;14m[1mFace[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www2.ece.ohio-state.edu/~aleix/ARdatabase.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mContains[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m4,000[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mcorresponding[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12m126[39m[38;5;12m [39m[38;5;12mpeople's[39m[38;5;12m [39m[38;5;12mfaces[39m[38;5;12m [39m[38;5;12m(70[39m[38;5;12m [39m[38;5;12mmen[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12m56[39m[38;5;12m [39m[38;5;12mwomen).[39m[38;5;12m [39m[38;5;12mFrontal[39m[38;5;12m [39m[38;5;12mviews[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mvariations[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mfacial[39m[38;5;12m [39m[38;5;12mexpressions,[39m[38;5;12m [39m[38;5;12millumination,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m
|
||||
[38;5;12mocclusions.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mRAW[39m[38;5;12m [39m[38;5;12m(RGB[39m[38;5;12m [39m[38;5;12m24-bit))[39m
|
||||
[38;5;12m100. [39m[38;5;14m[1mPurdue Robot Vision Lab[0m[38;5;12m (http://rvl.www.ecn.purdue.edu/RVL/)[39m
|
||||
[38;5;12m101.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mMIT-CSAIL[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mObjects[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mScenes[0m[38;5;12m [39m[38;5;12m(http://web.mit.edu/torralba/www/database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDatabase[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12mmulticlass[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mdetection[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mscene[39m[38;5;12m [39m[38;5;12mrecognition[39m[38;5;12m [39m[38;5;12malgorithms.[39m[38;5;12m [39m[38;5;12mOver[39m[38;5;12m [39m[38;5;12m72,000[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m2873[39m[38;5;12m [39m[38;5;12mannotated[39m[38;5;12m [39m[38;5;12mframes.[39m[38;5;12m [39m[38;5;12mMore[39m[38;5;12m [39m
|
||||
[38;5;12mthan[39m[38;5;12m [39m[38;5;12m50[39m[38;5;12m [39m[38;5;12mannotated[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mclasses.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mjpg)[39m
|
||||
[38;5;12m102.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mRVL[0m[38;5;14m[1m [0m[38;5;14m[1mSPEC-DB[0m[38;5;14m[1m [0m[38;5;14m[1m(SPECularity[0m[38;5;14m[1m [0m[38;5;14m[1mDataBase)[0m[38;5;12m [39m[38;5;12m(http://rvl1.ecn.purdue.edu/RVL/specularity_database/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m300[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m100[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mtaken[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12milluminaiton[39m[38;5;12m [39m[38;5;12mconditions[39m[38;5;12m [39m[38;5;12m(Diffuse/Ambient/Directed).[39m[38;5;12m [39m[38;5;12m--[39m[38;5;12m [39m
|
||||
[38;5;12mUse[39m[38;5;12m [39m[38;5;12mthese[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mdetecting[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcompensating[39m[38;5;12m [39m[38;5;12mspecular[39m[38;5;12m [39m[38;5;12mhighlights[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF[39m[38;5;12m [39m[38;5;12m)[39m
|
||||
[38;5;12m101.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mMIT-CSAIL[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mObjects[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mScenes[0m[38;5;12m [39m[38;5;12m(http://web.mit.edu/torralba/www/database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDatabase[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12mmulticlass[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mdetection[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mscene[39m[38;5;12m [39m[38;5;12mrecognition[39m[38;5;12m [39m[38;5;12malgorithms.[39m[38;5;12m [39m[38;5;12mOver[39m[38;5;12m [39m[38;5;12m72,000[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m2873[39m[38;5;12m [39m[38;5;12mannotated[39m[38;5;12m [39m[38;5;12mframes.[39m[38;5;12m [39m[38;5;12mMore[39m[38;5;12m [39m[38;5;12mthan[39m[38;5;12m [39m[38;5;12m50[39m[38;5;12m [39m
|
||||
[38;5;12mannotated[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mclasses.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mjpg)[39m
|
||||
[38;5;12m102.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mRVL[0m[38;5;14m[1m [0m[38;5;14m[1mSPEC-DB[0m[38;5;14m[1m [0m[38;5;14m[1m(SPECularity[0m[38;5;14m[1m [0m[38;5;14m[1mDataBase)[0m[38;5;12m [39m[38;5;12m(http://rvl1.ecn.purdue.edu/RVL/specularity_database/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m300[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m100[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mtaken[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12milluminaiton[39m[38;5;12m [39m[38;5;12mconditions[39m[38;5;12m [39m[38;5;12m(Diffuse/Ambient/Directed).[39m[38;5;12m [39m[38;5;12m--[39m[38;5;12m [39m[38;5;12mUse[39m[38;5;12m [39m[38;5;12mthese[39m[38;5;12m [39m
|
||||
[38;5;12mimages[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mdetecting[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcompensating[39m[38;5;12m [39m[38;5;12mspecular[39m[38;5;12m [39m[38;5;12mhighlights[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF[39m[38;5;12m [39m[38;5;12m)[39m
|
||||
[38;5;12m103. [39m[38;5;14m[1mRobot Vision Laboratory[0m[38;5;12m (http://rvl1.ecn.purdue.edu/RVL/)[39m
|
||||
[38;5;12m105. [39m[38;5;14m[1mThe Xm2vts database[0m[38;5;12m (http://xm2vtsdb.ee.surrey.ac.uk) - The XM2VTSDB contains four digital recordings of 295 people taken over a period of four months. This database contains both image and video data of faces.[39m
|
||||
[38;5;12m106. [39m[38;5;14m[1mCentre for Vision, Speech and Signal Processing[0m[38;5;12m (http://www.ee.surrey.ac.uk/Research/CVSSP)[39m
|
||||
@@ -518,15 +516,15 @@
|
||||
[38;5;12m115. [39m[38;5;14m[1mUMass Vision Image Archive[0m[38;5;12m (http://vis-www.cs.umass.edu/~vislib/) - Large image database with aerial, space, stereo, medical images and more. (Formats: homebrew)[39m
|
||||
[38;5;12m116. [39m[38;5;14m[1mUNC's 3D image database[0m[38;5;12m (ftp://sunsite.unc.edu/pub/academic/computer-science/virtual-reality/3d) - many images (Formats: GIF)[39m
|
||||
[38;5;12m117. [39m[38;5;14m[1mUSF Range Image Data with Segmentation Ground Truth[0m[38;5;12m (http://marathon.csee.usf.edu/range/seg-comp/SegComp.html) - 80 image sets (Formats: Sun rasterimage)[39m
|
||||
[38;5;12m118.[39m[38;5;12m [39m[38;5;14m[1mUniversity[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mOulu[0m[38;5;14m[1m [0m[38;5;14m[1mPhysics-based[0m[38;5;14m[1m [0m[38;5;14m[1mFace[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.ee.oulu.fi/research/imag/color/pbfd.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mfaces[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12milluminants[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcamera[39m[38;5;12m [39m[38;5;12mcalibration[39m[38;5;12m [39m[38;5;12mconditions[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mskin[39m[38;5;12m [39m[38;5;12mspectral[39m[38;5;12m [39m
|
||||
[38;5;12mreflectance[39m[38;5;12m [39m[38;5;12mmeasurements[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mperson.[39m
|
||||
[38;5;12m118.[39m[38;5;12m [39m[38;5;14m[1mUniversity[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mOulu[0m[38;5;14m[1m [0m[38;5;14m[1mPhysics-based[0m[38;5;14m[1m [0m[38;5;14m[1mFace[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.ee.oulu.fi/research/imag/color/pbfd.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mfaces[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12milluminants[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcamera[39m[38;5;12m [39m[38;5;12mcalibration[39m[38;5;12m [39m[38;5;12mconditions[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mskin[39m[38;5;12m [39m[38;5;12mspectral[39m[38;5;12m [39m[38;5;12mreflectance[39m[38;5;12m [39m
|
||||
[38;5;12mmeasurements[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mperson.[39m
|
||||
[38;5;12m119. [39m[38;5;14m[1mMachine Vision and Media Processing Unit[0m[38;5;12m (http://www.ee.oulu.fi/mvmp/)[39m
|
||||
[38;5;12m121.[39m[38;5;12m [39m[38;5;14m[1mUniversity[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mOulu[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.outex.oulu.fi)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDatabase[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m320[39m[38;5;12m [39m[38;5;12msurface[39m[38;5;12m [39m[38;5;12mtextures,[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mcaptured[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12milluminants,[39m[38;5;12m [39m[38;5;12msix[39m[38;5;12m [39m[38;5;12mspatial[39m[38;5;12m [39m[38;5;12mresolutions[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mnine[39m[38;5;12m [39m[38;5;12mrotation[39m[38;5;12m [39m[38;5;12mangles.[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12msuites[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12malso[39m[38;5;12m [39m[38;5;12mprovided[39m[38;5;12m [39m[38;5;12mso[39m[38;5;12m [39m
|
||||
[38;5;12mthat[39m[38;5;12m [39m[38;5;12mtexture[39m[38;5;12m [39m[38;5;12msegmentation,[39m[38;5;12m [39m[38;5;12mclassification,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mretrieval[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mcan[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mtested[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mstandard[39m[38;5;12m [39m[38;5;12mmanner.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mbmp,[39m[38;5;12m [39m[38;5;12mras,[39m[38;5;12m [39m[38;5;12mxv)[39m
|
||||
[38;5;12m121.[39m[38;5;12m [39m[38;5;14m[1mUniversity[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mOulu[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.outex.oulu.fi)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDatabase[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m320[39m[38;5;12m [39m[38;5;12msurface[39m[38;5;12m [39m[38;5;12mtextures,[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mcaptured[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12milluminants,[39m[38;5;12m [39m[38;5;12msix[39m[38;5;12m [39m[38;5;12mspatial[39m[38;5;12m [39m[38;5;12mresolutions[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mnine[39m[38;5;12m [39m[38;5;12mrotation[39m[38;5;12m [39m[38;5;12mangles.[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12msuites[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12malso[39m[38;5;12m [39m[38;5;12mprovided[39m[38;5;12m [39m[38;5;12mso[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mtexture[39m
|
||||
[38;5;12msegmentation,[39m[38;5;12m [39m[38;5;12mclassification,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mretrieval[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mcan[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mtested[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mstandard[39m[38;5;12m [39m[38;5;12mmanner.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mbmp,[39m[38;5;12m [39m[38;5;12mras,[39m[38;5;12m [39m[38;5;12mxv)[39m
|
||||
[38;5;12m122. [39m[38;5;14m[1mMachine Vision Group[0m[38;5;12m (http://www.ee.oulu.fi/mvg)[39m
|
||||
[38;5;12m124. [39m[38;5;14m[1mUsenix face database[0m[38;5;12m (ftp://ftp.uu.net/published/usenix/faces) - Thousands of face images from many different sites (circa 994)[39m
|
||||
[38;5;12m125.[39m[38;5;12m [39m[38;5;14m[1mView[0m[38;5;14m[1m [0m[38;5;14m[1mSphere[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www-prima.inrialpes.fr/Prima/hall/view_sphere.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mImages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m8[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mseen[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12mmany[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12mpoints.[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12msphere[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12msampled[39m[38;5;12m [39m[38;5;12musing[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mgeodesic[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m172[39m[38;5;12m [39m[38;5;12mimages/sphere.[39m[38;5;12m [39m[38;5;12mTwo[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtraining[39m[38;5;12m [39m
|
||||
[38;5;12mand[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mavailable.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm)[39m
|
||||
[38;5;12m125.[39m[38;5;12m [39m[38;5;14m[1mView[0m[38;5;14m[1m [0m[38;5;14m[1mSphere[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www-prima.inrialpes.fr/Prima/hall/view_sphere.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mImages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m8[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mseen[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12mmany[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12mpoints.[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12msphere[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12msampled[39m[38;5;12m [39m[38;5;12musing[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mgeodesic[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m172[39m[38;5;12m [39m[38;5;12mimages/sphere.[39m[38;5;12m [39m[38;5;12mTwo[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtraining[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m
|
||||
[38;5;12mtesting[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mavailable.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm)[39m
|
||||
[38;5;12m126. [39m[38;5;14m[1mPRIMA, GRAVIR[0m[38;5;12m (http://www-prima.inrialpes.fr/Prima/)[39m
|
||||
[38;5;12m127. [39m[38;5;14m[1mVision-list Imagery Archive[0m[38;5;12m (ftp://ftp.vislist.com/IMAGERY/) - Many images, many formats[39m
|
||||
[38;5;12m128. [39m[38;5;14m[1mWiry Object Recognition Database[0m[38;5;12m (http://www.cs.cmu.edu/~owenc/word.htm) - Thousands of images of a cart, ladder, stool, bicycle, chairs, and cluttered scenes with ground truth labelings of edges and regions. (Formats: jpg)[39m
|
||||
@@ -538,17 +536,17 @@
|
||||
[38;5;12m135. [39m[38;5;14m[1mYouTube-8M Dataset[0m[38;5;12m (https://research.google.com/youtube8m/) - YouTube-8M is a large-scale labeled video dataset that consists of 8 million YouTube video IDs and associated labels from a diverse vocabulary of 4800 visual entities.[39m
|
||||
[38;5;12m136. [39m[38;5;14m[1mOpen Images dataset[0m[38;5;12m (https://github.com/openimages/dataset) - Open Images is a dataset of ~9 million URLs to images that have been annotated with labels spanning over 6000 categories.[39m
|
||||
[38;5;12m137. [39m[38;5;14m[1mVisual Object Classes Challenge 2012 (VOC2012)[0m[38;5;12m (http://host.robots.ox.ac.uk/pascal/VOC/voc2012/index.html#devkit) - VOC2012 dataset containing 12k images with 20 annotated classes for object detection and segmentation.[39m
|
||||
[38;5;12m138.[39m[38;5;12m [39m[38;5;14m[1mFashion-MNIST[0m[38;5;12m [39m[38;5;12m(https://github.com/zalandoresearch/fashion-mnist)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mMNIST[39m[38;5;12m [39m[38;5;12mlike[39m[38;5;12m [39m[38;5;12mfashion[39m[38;5;12m [39m[38;5;12mproduct[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mconsisting[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtraining[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m60,000[39m[38;5;12m [39m[38;5;12mexamples[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m10,000[39m[38;5;12m [39m[38;5;12mexamples.[39m[38;5;12m [39m[38;5;12mEach[39m[38;5;12m [39m[38;5;12mexample[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12m28x28[39m[38;5;12m [39m[38;5;12mgrayscale[39m[38;5;12m [39m[38;5;12mimage,[39m[38;5;12m [39m
|
||||
[38;5;12massociated[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mlabel[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12m10[39m[38;5;12m [39m[38;5;12mclasses.[39m
|
||||
[38;5;12m139.[39m[38;5;12m [39m[38;5;14m[1mLarge-scale[0m[38;5;14m[1m [0m[38;5;14m[1mFashion[0m[38;5;14m[1m [0m[38;5;14m[1m(DeepFashion)[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://mmlab.ie.cuhk.edu.hk/projects/DeepFashion.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mContains[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m800,000[39m[38;5;12m [39m[38;5;12mdiverse[39m[38;5;12m [39m[38;5;12mfashion[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12mEach[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mthis[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mlabeled[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m50[39m[38;5;12m [39m[38;5;12mcategories,[39m[38;5;12m [39m[38;5;12m1,000[39m[38;5;12m [39m[38;5;12mdescriptive[39m[38;5;12m [39m
|
||||
[38;5;12mattributes,[39m[38;5;12m [39m[38;5;12mbounding[39m[38;5;12m [39m[38;5;12mbox[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mclothing[39m[38;5;12m [39m[38;5;12mlandmarks[39m
|
||||
[38;5;12m138.[39m[38;5;12m [39m[38;5;14m[1mFashion-MNIST[0m[38;5;12m [39m[38;5;12m(https://github.com/zalandoresearch/fashion-mnist)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mMNIST[39m[38;5;12m [39m[38;5;12mlike[39m[38;5;12m [39m[38;5;12mfashion[39m[38;5;12m [39m[38;5;12mproduct[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mconsisting[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtraining[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m60,000[39m[38;5;12m [39m[38;5;12mexamples[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m10,000[39m[38;5;12m [39m[38;5;12mexamples.[39m[38;5;12m [39m[38;5;12mEach[39m[38;5;12m [39m[38;5;12mexample[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12m28x28[39m[38;5;12m [39m[38;5;12mgrayscale[39m[38;5;12m [39m[38;5;12mimage,[39m[38;5;12m [39m[38;5;12massociated[39m[38;5;12m [39m[38;5;12mwith[39m
|
||||
[38;5;12ma[39m[38;5;12m [39m[38;5;12mlabel[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12m10[39m[38;5;12m [39m[38;5;12mclasses.[39m
|
||||
[38;5;12m139.[39m[38;5;12m [39m[38;5;14m[1mLarge-scale[0m[38;5;14m[1m [0m[38;5;14m[1mFashion[0m[38;5;14m[1m [0m[38;5;14m[1m(DeepFashion)[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://mmlab.ie.cuhk.edu.hk/projects/DeepFashion.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mContains[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m800,000[39m[38;5;12m [39m[38;5;12mdiverse[39m[38;5;12m [39m[38;5;12mfashion[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12mEach[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mthis[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mlabeled[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m50[39m[38;5;12m [39m[38;5;12mcategories,[39m[38;5;12m [39m[38;5;12m1,000[39m[38;5;12m [39m[38;5;12mdescriptive[39m[38;5;12m [39m[38;5;12mattributes,[39m[38;5;12m [39m
|
||||
[38;5;12mbounding[39m[38;5;12m [39m[38;5;12mbox[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mclothing[39m[38;5;12m [39m[38;5;12mlandmarks[39m
|
||||
[38;5;12m140. [39m[38;5;14m[1mFakeNewsCorpus[0m[38;5;12m (https://github.com/several27/FakeNewsCorpus) - Contains about 10 million news articles classified using [39m[38;5;14m[1mopensources.co[0m[38;5;12m (http://opensources.co) types[39m
|
||||
[38;5;12m141. [39m[38;5;14m[1mLLVIP[0m[38;5;12m (https://github.com/bupt-ai-cz/LLVIP) - 15488 visible-infrared paired images (30976 images) for low-light vision research, [39m[38;5;14m[1mProject_Page[0m[38;5;12m (https://bupt-ai-cz.github.io/LLVIP/)[39m
|
||||
[38;5;12m142. [39m[38;5;14m[1mMSDA[0m[38;5;12m (https://github.com/bupt-ai-cz/Meta-SelfLearning) - Over over 5 million images from 5 different domains for multi-source ocr/text recognition DA research, [39m[38;5;14m[1mProject_Page[0m[38;5;12m (https://bupt-ai-cz.github.io/Meta-SelfLearning/)[39m
|
||||
[38;5;12m143.[39m[38;5;12m [39m[38;5;14m[1mSANAD:[0m[38;5;14m[1m [0m[38;5;14m[1mSingle-Label[0m[38;5;14m[1m [0m[38;5;14m[1mArabic[0m[38;5;14m[1m [0m[38;5;14m[1mNews[0m[38;5;14m[1m [0m[38;5;14m[1mArticles[0m[38;5;14m[1m [0m[38;5;14m[1mDataset[0m[38;5;14m[1m [0m[38;5;14m[1mfor[0m[38;5;14m[1m [0m[38;5;14m[1mAutomatic[0m[38;5;14m[1m [0m[38;5;14m[1mText[0m[38;5;14m[1m [0m[38;5;14m[1mCategorization[0m[38;5;12m [39m[38;5;12m(https://data.mendeley.com/datasets/57zpx667y9/2)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSANAD[39m[38;5;12m [39m[38;5;12mDataset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mlarge[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mArabic[39m[38;5;12m [39m[38;5;12mnews[39m[38;5;12m [39m[38;5;12marticles[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mcan[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mArabic[39m
|
||||
[38;5;12mNLP[39m[38;5;12m [39m[38;5;12mtasks[39m[38;5;12m [39m[38;5;12msuch[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mText[39m[38;5;12m [39m[38;5;12mClassification[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mWord[39m[38;5;12m [39m[38;5;12mEmbedding.[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12marticles[39m[38;5;12m [39m[38;5;12mwere[39m[38;5;12m [39m[38;5;12mcollected[39m[38;5;12m [39m[38;5;12musing[39m[38;5;12m [39m[38;5;12mPython[39m[38;5;12m [39m[38;5;12mscripts[39m[38;5;12m [39m[38;5;12mwritten[39m[38;5;12m [39m[38;5;12mspecifically[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12mpopular[39m[38;5;12m [39m[38;5;12mnews[39m[38;5;12m [39m[38;5;12mwebsites:[39m[38;5;12m [39m[38;5;12mAlKhaleej,[39m[38;5;12m [39m[38;5;12mAlArabiya[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mAkhbarona.[39m[38;5;12m [39m
|
||||
[38;5;12m144.[39m[38;5;12m [39m[38;5;14m[1mReferit3D[0m[38;5;12m [39m[38;5;12m(https://referit3d.github.io)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mTwo[39m[38;5;12m [39m[38;5;12mlarge-scale[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcomplementary[39m[38;5;12m [39m[38;5;12mvisio-linguistic[39m[38;5;12m [39m[38;5;12mdatasets[39m[38;5;12m [39m[38;5;12m(aka[39m[38;5;12m [39m[38;5;12mNr3D[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mSr3D)[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12midentifying[39m[38;5;12m [39m[38;5;12mfine-grained[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mScanNet[39m[38;5;12m [39m[38;5;12mscenes.[39m[38;5;12m [39m[38;5;12mNr3D[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m41.5K[39m[38;5;12m [39m[38;5;12mnatural,[39m[38;5;12m [39m[38;5;12mfree-form[39m[38;5;12m [39m[38;5;12mutterances,[39m
|
||||
[38;5;12mand[39m[38;5;12m [39m[38;5;12mSr3d[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m83.5K[39m[38;5;12m [39m[38;5;12mtemplate-based[39m[38;5;12m [39m[38;5;12mutterances.[39m
|
||||
[38;5;12m143.[39m[38;5;12m [39m[38;5;14m[1mSANAD:[0m[38;5;14m[1m [0m[38;5;14m[1mSingle-Label[0m[38;5;14m[1m [0m[38;5;14m[1mArabic[0m[38;5;14m[1m [0m[38;5;14m[1mNews[0m[38;5;14m[1m [0m[38;5;14m[1mArticles[0m[38;5;14m[1m [0m[38;5;14m[1mDataset[0m[38;5;14m[1m [0m[38;5;14m[1mfor[0m[38;5;14m[1m [0m[38;5;14m[1mAutomatic[0m[38;5;14m[1m [0m[38;5;14m[1mText[0m[38;5;14m[1m [0m[38;5;14m[1mCategorization[0m[38;5;12m [39m[38;5;12m(https://data.mendeley.com/datasets/57zpx667y9/2)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSANAD[39m[38;5;12m [39m[38;5;12mDataset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mlarge[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mArabic[39m[38;5;12m [39m[38;5;12mnews[39m[38;5;12m [39m[38;5;12marticles[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mcan[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mArabic[39m[38;5;12m [39m[38;5;12mNLP[39m[38;5;12m [39m[38;5;12mtasks[39m
|
||||
[38;5;12msuch[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mText[39m[38;5;12m [39m[38;5;12mClassification[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mWord[39m[38;5;12m [39m[38;5;12mEmbedding.[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12marticles[39m[38;5;12m [39m[38;5;12mwere[39m[38;5;12m [39m[38;5;12mcollected[39m[38;5;12m [39m[38;5;12musing[39m[38;5;12m [39m[38;5;12mPython[39m[38;5;12m [39m[38;5;12mscripts[39m[38;5;12m [39m[38;5;12mwritten[39m[38;5;12m [39m[38;5;12mspecifically[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12mpopular[39m[38;5;12m [39m[38;5;12mnews[39m[38;5;12m [39m[38;5;12mwebsites:[39m[38;5;12m [39m[38;5;12mAlKhaleej,[39m[38;5;12m [39m[38;5;12mAlArabiya[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mAkhbarona.[39m[38;5;12m [39m
|
||||
[38;5;12m144.[39m[38;5;12m [39m[38;5;14m[1mReferit3D[0m[38;5;12m [39m[38;5;12m(https://referit3d.github.io)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mTwo[39m[38;5;12m [39m[38;5;12mlarge-scale[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcomplementary[39m[38;5;12m [39m[38;5;12mvisio-linguistic[39m[38;5;12m [39m[38;5;12mdatasets[39m[38;5;12m [39m[38;5;12m(aka[39m[38;5;12m [39m[38;5;12mNr3D[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mSr3D)[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12midentifying[39m[38;5;12m [39m[38;5;12mfine-grained[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mScanNet[39m[38;5;12m [39m[38;5;12mscenes.[39m[38;5;12m [39m[38;5;12mNr3D[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m41.5K[39m[38;5;12m [39m[38;5;12mnatural,[39m[38;5;12m [39m[38;5;12mfree-form[39m[38;5;12m [39m[38;5;12mutterances,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mSr3d[39m[38;5;12m [39m
|
||||
[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m83.5K[39m[38;5;12m [39m[38;5;12mtemplate-based[39m[38;5;12m [39m[38;5;12mutterances.[39m
|
||||
[38;5;12m145. [39m[38;5;14m[1mSQuAD[0m[38;5;12m (https://rajpurkar.github.io/SQuAD-explorer/) - Stanford released ~100,000 English QA pairs and ~50,000 unanswerable questions[39m
|
||||
[38;5;12m146. [39m[38;5;14m[1mFQuAD[0m[38;5;12m (https://fquad.illuin.tech/) - ~25,000 French QA pairs released by Illuin Technology[39m
|
||||
[38;5;12m147. [39m[38;5;14m[1mGermanQuAD and GermanDPR[0m[38;5;12m (https://www.deepset.ai/germanquad) - deepset released ~14,000 German QA pairs[39m
|
||||
@@ -655,16 +653,16 @@
|
||||
[38;5;12m6. [39m[38;5;14m[1mML Workspace[0m[38;5;12m (https://github.com/ml-tooling/ml-workspace) - All-in-one web-based IDE for machine learning and data science.[39m
|
||||
[38;5;12m7. [39m[38;5;14m[1mdowel[0m[38;5;12m (https://github.com/rlworkgroup/dowel) - A little logger for machine learning research. Log any object to the console, CSVs, TensorBoard, text log files, and more with just one call to [39m[48;5;235m[38;5;249mlogger.log()[49m[39m
|
||||
[38;5;12m8. [39m[38;5;14m[1mNeptune[0m[38;5;12m (https://neptune.ai/) - Lightweight tool for experiment tracking and results visualization. [39m
|
||||
[38;5;12m9.[39m[38;5;12m [39m[38;5;14m[1mCatalyzeX[0m[38;5;12m [39m[38;5;12m(https://chrome.google.com/webstore/detail/code-finder-for-research/aikkeehnlfpamidigaffhfmgbkdeheil)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mBrowser[39m[38;5;12m [39m[38;5;12mextension[39m[38;5;12m [39m[38;5;12m([39m[38;5;14m[1mChrome[0m[38;5;12m [39m
|
||||
[38;5;12m(https://chrome.google.com/webstore/detail/code-finder-for-research/aikkeehnlfpamidigaffhfmgbkdeheil)[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;14m[1mFirefox[0m[38;5;12m [39m[38;5;12m(https://addons.mozilla.org/en-US/firefox/addon/code-finder-catalyzex/))[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mautomatically[39m[38;5;12m [39m[38;5;12mfinds[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mlinks[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mcode[39m[38;5;12m [39m
|
||||
[38;5;12mimplementations[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mML[39m[38;5;12m [39m[38;5;12mpapers[39m[38;5;12m [39m[38;5;12manywhere[39m[38;5;12m [39m[38;5;12monline:[39m[38;5;12m [39m[38;5;12mGoogle,[39m[38;5;12m [39m[38;5;12mTwitter,[39m[38;5;12m [39m[38;5;12mArxiv,[39m[38;5;12m [39m[38;5;12mScholar,[39m[38;5;12m [39m[38;5;12metc.[39m
|
||||
[38;5;12m9.[39m[38;5;12m [39m[38;5;14m[1mCatalyzeX[0m[38;5;12m [39m[38;5;12m(https://chrome.google.com/webstore/detail/code-finder-for-research/aikkeehnlfpamidigaffhfmgbkdeheil)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mBrowser[39m[38;5;12m [39m[38;5;12mextension[39m[38;5;12m [39m[38;5;12m([39m[38;5;14m[1mChrome[0m[38;5;12m [39m[38;5;12m(https://chrome.google.com/webstore/detail/code-finder-for-research/aikkeehnlfpamidigaffhfmgbkdeheil)[39m[38;5;12m [39m
|
||||
[38;5;12mand[39m[38;5;12m [39m[38;5;14m[1mFirefox[0m[38;5;12m [39m[38;5;12m(https://addons.mozilla.org/en-US/firefox/addon/code-finder-catalyzex/))[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mautomatically[39m[38;5;12m [39m[38;5;12mfinds[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mlinks[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mcode[39m[38;5;12m [39m[38;5;12mimplementations[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mML[39m[38;5;12m [39m[38;5;12mpapers[39m[38;5;12m [39m[38;5;12manywhere[39m[38;5;12m [39m[38;5;12monline:[39m[38;5;12m [39m[38;5;12mGoogle,[39m[38;5;12m [39m[38;5;12mTwitter,[39m[38;5;12m [39m[38;5;12mArxiv,[39m[38;5;12m [39m[38;5;12mScholar,[39m[38;5;12m [39m[38;5;12metc.[39m
|
||||
[38;5;12m10. [39m[38;5;14m[1mDetermined[0m[38;5;12m (https://github.com/determined-ai/determined) - Deep learning training platform with integrated support for distributed training, hyperparameter tuning, smart GPU scheduling, experiment tracking, and a model registry.[39m
|
||||
[38;5;12m11. [39m[38;5;14m[1mDAGsHub[0m[38;5;12m (https://dagshub.com/) - Community platform for Open Source ML – Manage experiments, data & models and create collaborative ML projects easily.[39m
|
||||
[38;5;12m12.[39m[38;5;12m [39m[38;5;14m[1mhub[0m[38;5;12m [39m[38;5;12m(https://github.com/activeloopai/Hub)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mFastest[39m[38;5;12m [39m[38;5;12munstructured[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mmanagement[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mTensorFlow/PyTorch[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mactiveloop.ai.[39m[38;5;12m [39m[38;5;12mStream[39m[38;5;12m [39m[38;5;12m&[39m[38;5;12m [39m[38;5;12mversion-control[39m[38;5;12m [39m[38;5;12mdata.[39m[38;5;12m [39m[38;5;12mConverts[39m[38;5;12m [39m[38;5;12mlarge[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12minto[39m[38;5;12m [39m[38;5;12msingle[39m[38;5;12m [39m[38;5;12mnumpy-like[39m[38;5;12m [39m[38;5;12marray[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mcloud,[39m[38;5;12m [39m
|
||||
[38;5;12maccessible[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12many[39m[38;5;12m [39m[38;5;12mmachine.[39m
|
||||
[38;5;12m12.[39m[38;5;12m [39m[38;5;14m[1mhub[0m[38;5;12m [39m[38;5;12m(https://github.com/activeloopai/Hub)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mFastest[39m[38;5;12m [39m[38;5;12munstructured[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mmanagement[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mTensorFlow/PyTorch[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mactiveloop.ai.[39m[38;5;12m [39m[38;5;12mStream[39m[38;5;12m [39m[38;5;12m&[39m[38;5;12m [39m[38;5;12mversion-control[39m[38;5;12m [39m[38;5;12mdata.[39m[38;5;12m [39m[38;5;12mConverts[39m[38;5;12m [39m[38;5;12mlarge[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12minto[39m[38;5;12m [39m[38;5;12msingle[39m[38;5;12m [39m[38;5;12mnumpy-like[39m[38;5;12m [39m[38;5;12marray[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mcloud,[39m[38;5;12m [39m[38;5;12maccessible[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12many[39m[38;5;12m [39m
|
||||
[38;5;12mmachine.[39m
|
||||
[38;5;12m13. [39m[38;5;14m[1mDVC[0m[38;5;12m (https://dvc.org/) - DVC is built to make ML models shareable and reproducible. It is designed to handle large files, data sets, machine learning models, and metrics as well as code.[39m
|
||||
[38;5;12m14. [39m[38;5;14m[1mCML[0m[38;5;12m (https://cml.dev/) - CML helps you bring your favorite DevOps tools to machine learning.[39m
|
||||
[38;5;12m15. [39m[38;5;14m[1mMLEM[0m[38;5;12m (https://mlem.ai/) - MLEM is a tool to easily package, deploy and serve Machine Learning models. It seamlessly supports a variety of scenarios like real-time serving and batch processing.[39m
|
||||
[38;5;12m16. [39m[38;5;14m[1mMaxim AI[0m[38;5;12m (https://getmaxim.ai) - Tool for AI Agent Simulation, Evaluation & Observability.[39m
|
||||
|
||||
|
||||
[38;2;255;187;0m[4mMiscellaneous[0m
|
||||
@@ -703,8 +701,8 @@
|
||||
[38;5;12m32. [39m[38;5;14m[1mAwesome Deep Learning Music[0m[38;5;12m (https://github.com/ybayle/awesome-deep-learning-music) - Curated list of articles related to deep learning scientific research applied to music[39m
|
||||
[38;5;12m33. [39m[38;5;14m[1mAwesome Graph Embedding[0m[38;5;12m (https://github.com/benedekrozemberczki/awesome-graph-embedding) - Curated list of articles related to deep learning scientific research on graph structured data at the graph level.[39m
|
||||
[38;5;12m34. [39m[38;5;14m[1mAwesome Network Embedding[0m[38;5;12m (https://github.com/chihming/awesome-network-embedding) - Curated list of articles related to deep learning scientific research on graph structured data at the node level.[39m
|
||||
[38;5;12m35.[39m[38;5;12m [39m[38;5;14m[1mMicrosoft[0m[38;5;14m[1m [0m[38;5;14m[1mRecommenders[0m[38;5;12m [39m[38;5;12m(https://github.com/Microsoft/Recommenders)[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12mexamples,[39m[38;5;12m [39m[38;5;12mutilities[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mbest[39m[38;5;12m [39m[38;5;12mpractices[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mbuilding[39m[38;5;12m [39m[38;5;12mrecommendation[39m[38;5;12m [39m[38;5;12msystems.[39m[38;5;12m [39m[38;5;12mImplementations[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12mstate-of-the-art[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mprovided[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m
|
||||
[38;5;12mself-study[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcustomization[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12myour[39m[38;5;12m [39m[38;5;12mown[39m[38;5;12m [39m[38;5;12mapplications.[39m
|
||||
[38;5;12m35.[39m[38;5;12m [39m[38;5;14m[1mMicrosoft[0m[38;5;14m[1m [0m[38;5;14m[1mRecommenders[0m[38;5;12m [39m[38;5;12m(https://github.com/Microsoft/Recommenders)[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12mexamples,[39m[38;5;12m [39m[38;5;12mutilities[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mbest[39m[38;5;12m [39m[38;5;12mpractices[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mbuilding[39m[38;5;12m [39m[38;5;12mrecommendation[39m[38;5;12m [39m[38;5;12msystems.[39m[38;5;12m [39m[38;5;12mImplementations[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12mstate-of-the-art[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mprovided[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mself-study[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m
|
||||
[38;5;12mcustomization[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12myour[39m[38;5;12m [39m[38;5;12mown[39m[38;5;12m [39m[38;5;12mapplications.[39m
|
||||
[38;5;12m36. [39m[38;5;14m[1mThe Unreasonable Effectiveness of Recurrent Neural Networks[0m[38;5;12m (http://karpathy.github.io/2015/05/21/rnn-effectiveness/) - Andrej Karpathy blog post about using RNN for generating text.[39m
|
||||
[38;5;12m37. [39m[38;5;14m[1mLadder Network[0m[38;5;12m (https://github.com/divamgupta/ladder_network_keras) - Keras Implementation of Ladder Network for Semi-Supervised Learning [39m
|
||||
[38;5;12m38. [39m[38;5;14m[1mtoolbox: Curated list of ML libraries[0m[38;5;12m (https://github.com/amitness/toolbox)[39m
|
||||
@@ -712,13 +710,15 @@
|
||||
[38;5;12m40. [39m[38;5;14m[1mAI Expert Roadmap[0m[38;5;12m (https://github.com/AMAI-GmbH/AI-Expert-Roadmap) - Roadmap to becoming an Artificial Intelligence Expert[39m
|
||||
[38;5;12m41. [39m[38;5;14m[1mAwesome Drug Interactions, Synergy, and Polypharmacy Prediction[0m[38;5;12m (https://github.com/AstraZeneca/awesome-polipharmacy-side-effect-prediction/)[39m
|
||||
|
||||
[38;5;238m――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――[39m
|
||||
[38;5;238m――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――[39m
|
||||
[38;2;255;187;0m[4mContributing[0m
|
||||
[38;5;12mHave anything in mind that you think is awesome and would fit in this list? Feel free to send a [39m[38;5;14m[1mpull request[0m[38;5;12m (https://github.com/ashara12/awesome-deeplearning/pulls).[39m
|
||||
|
||||
[38;5;238m――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――[39m
|
||||
[38;5;238m――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――[39m
|
||||
[38;2;255;187;0m[4mLicense[0m
|
||||
|
||||
[38;5;14m[1m![0m[38;5;12mCC0[39m[38;5;14m[1m (http://i.creativecommons.org/p/zero/1.0/88x31.png)[0m[38;5;12m (http://creativecommons.org/publicdomain/zero/1.0/)[39m
|
||||
|
||||
[38;5;12mTo the extent possible under law, [39m[38;5;14m[1mChristos Christofidis[0m[38;5;12m (https://linkedin.com/in/Christofidis) has waived all copyright and related or neighboring rights to this work.[39m
|
||||
|
||||
[38;5;12mdeeplearning Github: https://github.com/ChristosChristofidis/awesome-deep-learning[39m
|
||||
|
||||
Reference in New Issue
Block a user