Update and add index
This commit is contained in:
@@ -55,8 +55,8 @@
|
||||
[38;5;12m22. [39m[38;5;14m[1mRegularization in Deep Learning[0m[38;5;12m (https://www.manning.com/books/regularization-in-deep-learning) - by Liu Peng[39m
|
||||
[38;5;12m23. [39m[38;5;14m[1mJax in Action[0m[38;5;12m (https://www.manning.com/books/jax-in-action) - by Grigory Sapunov[39m
|
||||
[38;5;12m24.[39m[38;5;12m [39m[38;5;14m[1mHands-On[0m[38;5;14m[1m [0m[38;5;14m[1mMachine[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mScikit-Learn,[0m[38;5;14m[1m [0m[38;5;14m[1mKeras,[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mTensorFlow[0m[38;5;12m [39m
|
||||
[38;5;12m(https://www.knowledgeisle.com/wp-content/uploads/2019/12/2-Aur%C3%A9lien-G%C3%A9ron-Hands-On-Machine-Learning-with-Scikit-Learn-Keras-and-Tensorflow_-Concepts-Tools-and-Techniques-to-Build-I[39m
|
||||
[38;5;12mntelligent-Systems-O%E2%80%99Reilly-Media-2019.pdf)[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mAurélien[39m[38;5;12m [39m[38;5;12mGéron[39m[38;5;12m [39m[38;5;12m|[39m[38;5;12m [39m[38;5;12mOct[39m[38;5;12m [39m[38;5;12m15,[39m[38;5;12m [39m[38;5;12m2019[39m
|
||||
[38;5;12m(https://www.knowledgeisle.com/wp-content/uploads/2019/12/2-Aur%C3%A9lien-G%C3%A9ron-Hands-On-Machine-Learning-with-Scikit-Learn-Keras-and-Tensorflow_-Concepts-Tools-and-Techniques-to-Build-Intelligent-Systems-O%E2%80%99Reilly-Media-201[39m
|
||||
[38;5;12m9.pdf)[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mAurélien[39m[38;5;12m [39m[38;5;12mGéron[39m[38;5;12m [39m[38;5;12m|[39m[38;5;12m [39m[38;5;12mOct[39m[38;5;12m [39m[38;5;12m15,[39m[38;5;12m [39m[38;5;12m2019[39m
|
||||
|
||||
[38;2;255;187;0m[4mCourses[0m
|
||||
|
||||
@@ -74,8 +74,8 @@
|
||||
[38;5;12m11. [39m[38;5;14m[1mNeural Networks - usherbrooke[0m[38;5;12m (http://info.usherbrooke.ca/hlarochelle/neural_networks/content.html)[39m
|
||||
[38;5;12m12. [39m[38;5;14m[1mMachine Learning - Oxford[0m[38;5;12m (https://www.cs.ox.ac.uk/people/nando.defreitas/machinelearning/) (2014-2015)[39m
|
||||
[38;5;12m13. [39m[38;5;14m[1mDeep Learning - Nvidia[0m[38;5;12m (https://developer.nvidia.com/deep-learning-courses) (2015)[39m
|
||||
[38;5;12m14.[39m[38;5;12m [39m[38;5;14m[1mGraduate[0m[38;5;14m[1m [0m[38;5;14m[1mSummer[0m[38;5;14m[1m [0m[38;5;14m[1mSchool:[0m[38;5;14m[1m [0m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning,[0m[38;5;14m[1m [0m[38;5;14m[1mFeature[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;12m [39m[38;5;12m(https://www.youtube.com/playlist?list=PLHyI3Fbmv0SdzMHAy0aN59oYnLy5vyyTA)[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mGeoffrey[39m[38;5;12m [39m[38;5;12mHinton,[39m[38;5;12m [39m[38;5;12mYoshua[39m[38;5;12m [39m[38;5;12mBengio,[39m[38;5;12m [39m[38;5;12mYann[39m[38;5;12m [39m[38;5;12mLeCun,[39m[38;5;12m [39m[38;5;12mAndrew[39m[38;5;12m [39m
|
||||
[38;5;12mNg,[39m[38;5;12m [39m[38;5;12mNando[39m[38;5;12m [39m[38;5;12mde[39m[38;5;12m [39m[38;5;12mFreitas[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12mothers[39m[38;5;12m [39m[38;5;12m@[39m[38;5;12m [39m[38;5;12mIPAM,[39m[38;5;12m [39m[38;5;12mUCLA[39m[38;5;12m [39m[38;5;12m(2012)[39m
|
||||
[38;5;12m14.[39m[38;5;12m [39m[38;5;14m[1mGraduate[0m[38;5;14m[1m [0m[38;5;14m[1mSummer[0m[38;5;14m[1m [0m[38;5;14m[1mSchool:[0m[38;5;14m[1m [0m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning,[0m[38;5;14m[1m [0m[38;5;14m[1mFeature[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;12m [39m[38;5;12m(https://www.youtube.com/playlist?list=PLHyI3Fbmv0SdzMHAy0aN59oYnLy5vyyTA)[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mGeoffrey[39m[38;5;12m [39m[38;5;12mHinton,[39m[38;5;12m [39m[38;5;12mYoshua[39m[38;5;12m [39m[38;5;12mBengio,[39m[38;5;12m [39m[38;5;12mYann[39m[38;5;12m [39m[38;5;12mLeCun,[39m[38;5;12m [39m[38;5;12mAndrew[39m[38;5;12m [39m[38;5;12mNg,[39m[38;5;12m [39m[38;5;12mNando[39m[38;5;12m [39m[38;5;12mde[39m[38;5;12m [39m[38;5;12mFreitas[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12mothers[39m[38;5;12m [39m[38;5;12m@[39m[38;5;12m [39m
|
||||
[38;5;12mIPAM,[39m[38;5;12m [39m[38;5;12mUCLA[39m[38;5;12m [39m[38;5;12m(2012)[39m
|
||||
[38;5;12m15. [39m[38;5;14m[1mDeep Learning - Udacity/Google[0m[38;5;12m (https://www.udacity.com/course/deep-learning--ud730) by Vincent Vanhoucke and Arpan Chakraborty (2016)[39m
|
||||
[38;5;12m16. [39m[38;5;14m[1mDeep Learning - UWaterloo[0m[38;5;12m (https://www.youtube.com/playlist?list=PLehuLRPyt1Hyi78UOkMPWCGRxGcA9NVOE) by Prof. Ali Ghodsi at University of Waterloo (2015)[39m
|
||||
[38;5;12m17. [39m[38;5;14m[1mStatistical Machine Learning - CMU[0m[38;5;12m (https://www.youtube.com/watch?v=azaLcvuql_g&list=PLjbUi5mgii6BWEUZf7He6nowWvGne_Y8r) by Prof. Larry Wasserman[39m
|
||||
@@ -90,16 +90,14 @@
|
||||
[38;5;12m26. [39m[38;5;14m[1mIntroduction to Deep Learning[0m[38;5;12m (http://deeplearning.cs.cmu.edu/) by Prof. Bhiksha Raj (2017)[39m
|
||||
[38;5;12m27. [39m[38;5;14m[1mAI for Everyone[0m[38;5;12m (https://www.deeplearning.ai/ai-for-everyone/) by Andrew Ng (2019)[39m
|
||||
[38;5;12m28. [39m[38;5;14m[1mMIT Intro to Deep Learning 7 day bootcamp[0m[38;5;12m (https://introtodeeplearning.com) - A seven day bootcamp designed in MIT to introduce deep learning methods and applications (2019)[39m
|
||||
[38;5;12m29.[39m[38;5;12m [39m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mBlueberry:[0m[38;5;14m[1m [0m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;12m [39m[38;5;12m(https://mithi.github.io/deep-blueberry)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mfree[39m[38;5;12m [39m[38;5;12mfive-weekend[39m[38;5;12m [39m[38;5;12mplan[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mself-learners[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mlearn[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mbasics[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mdeep-learning[39m[38;5;12m [39m[38;5;12marchitectures[39m[38;5;12m [39m[38;5;12mlike[39m[38;5;12m [39m[38;5;12mCNNs,[39m[38;5;12m [39m[38;5;12mLSTMs,[39m[38;5;12m [39m
|
||||
[38;5;12mRNNs,[39m[38;5;12m [39m[38;5;12mVAEs,[39m[38;5;12m [39m[38;5;12mGANs,[39m[38;5;12m [39m[38;5;12mDQN,[39m[38;5;12m [39m[38;5;12mA3C[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mmore[39m[38;5;12m [39m[38;5;12m(2019)[39m
|
||||
[38;5;12m29. [39m[38;5;14m[1mDeep Blueberry: Deep Learning[0m[38;5;12m (https://mithi.github.io/deep-blueberry) - A free five-weekend plan to self-learners to learn the basics of deep-learning architectures like CNNs, LSTMs, RNNs, VAEs, GANs, DQN, A3C and more (2019)[39m
|
||||
[38;5;12m30. [39m[38;5;14m[1mSpinning Up in Deep Reinforcement Learning[0m[38;5;12m (https://spinningup.openai.com/) - A free deep reinforcement learning course by OpenAI (2019)[39m
|
||||
[38;5;12m31. [39m[38;5;14m[1mDeep Learning Specialization - Coursera[0m[38;5;12m (https://www.coursera.org/specializations/deep-learning) - Breaking into AI with the best course from Andrew NG.[39m
|
||||
[38;5;12m32. [39m[38;5;14m[1mDeep Learning - UC Berkeley | STAT-157[0m[38;5;12m (https://www.youtube.com/playlist?list=PLZSO_6-bSqHQHBCoGaObUljoXAyyqhpFW) by Alex Smola and Mu Li (2019)[39m
|
||||
[38;5;12m33. [39m[38;5;14m[1mMachine Learning for Mere Mortals video course[0m[38;5;12m (https://www.manning.com/livevideo/machine-learning-for-mere-mortals) by Nick Chase[39m
|
||||
[38;5;12m34. [39m[38;5;14m[1mMachine Learning Crash Course with TensorFlow APIs[0m[38;5;12m (https://developers.google.com/machine-learning/crash-course/) -Google AI[39m
|
||||
[38;5;12m35. [39m[38;5;14m[1mDeep Learning from the Foundations[0m[38;5;12m (https://course.fast.ai/part2) Jeremy Howard - Fast.ai[39m
|
||||
[38;5;12m36.[39m[38;5;12m [39m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mReinforcement[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;14m[1m [0m[38;5;14m[1m(nanodegree)[0m[38;5;14m[1m [0m[38;5;14m[1m-[0m[38;5;14m[1m [0m[38;5;14m[1mUdacity[0m[38;5;12m [39m[38;5;12m(https://www.udacity.com/course/deep-reinforcement-learning-nanodegree--nd893)[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12m3-6[39m[38;5;12m [39m[38;5;12mmonth[39m[38;5;12m [39m[38;5;12mUdacity[39m[38;5;12m [39m[38;5;12mnanodegree,[39m[38;5;12m [39m[38;5;12mspanning[39m[38;5;12m [39m[38;5;12mmultiple[39m[38;5;12m [39m[38;5;12mcourses[39m
|
||||
[38;5;12m(2018)[39m
|
||||
[38;5;12m36. [39m[38;5;14m[1mDeep Reinforcement Learning (nanodegree) - Udacity[0m[38;5;12m (https://www.udacity.com/course/deep-reinforcement-learning-nanodegree--nd893) a 3-6 month Udacity nanodegree, spanning multiple courses (2018)[39m
|
||||
[38;5;12m37. [39m[38;5;14m[1mGrokking Deep Learning in Motion[0m[38;5;12m (https://www.manning.com/livevideo/grokking-deep-learning-in-motion) by Beau Carnes (2018)[39m
|
||||
[38;5;12m38. [39m[38;5;14m[1mFace Detection with Computer Vision and Deep Learning[0m[38;5;12m (https://www.udemy.com/share/1000gAA0QdcV9aQng=/) by Hakan Cebeci[39m
|
||||
[38;5;12m39. [39m[38;5;14m[1mDeep Learning Online Course list at Classpert[0m[38;5;12m (https://classpert.com/deep-learning) List of Deep Learning online courses (some are free) from Classpert Online Course Search[39m
|
||||
@@ -123,8 +121,7 @@
|
||||
[38;5;12m9. [39m[38;5;14m[1mDemystifying Unsupervised Feature Learning [0m[38;5;12m (https://www.youtube.com/watch?v=wZfVBwOO0-k) By Adam Coates[39m
|
||||
[38;5;12m10. [39m[38;5;14m[1mVisual Perception with Deep Learning[0m[38;5;12m (https://www.youtube.com/watch?v=3boKlkPBckA) By Yann LeCun[39m
|
||||
[38;5;12m11. [39m[38;5;14m[1mThe Next Generation of Neural Networks[0m[38;5;12m (https://www.youtube.com/watch?v=AyzOUbkUf3M) By Geoffrey Hinton at GoogleTechTalks[39m
|
||||
[38;5;12m12.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mwonderful[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mterrifying[0m[38;5;14m[1m [0m[38;5;14m[1mimplications[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mcomputers[0m[38;5;14m[1m [0m[38;5;14m[1mthat[0m[38;5;14m[1m [0m[38;5;14m[1mcan[0m[38;5;14m[1m [0m[38;5;14m[1mlearn[0m[38;5;12m [39m[38;5;12m(http://www.ted.com/talks/jeremy_howard_the_wonderful_and_terrifying_implications_of_computers_that_can_learn)[39m[38;5;12m [39m[38;5;12mBy[39m[38;5;12m [39m
|
||||
[38;5;12mJeremy[39m[38;5;12m [39m[38;5;12mHoward[39m[38;5;12m [39m[38;5;12mat[39m[38;5;12m [39m[38;5;12mTEDxBrussels[39m
|
||||
[38;5;12m12. [39m[38;5;14m[1mThe wonderful and terrifying implications of computers that can learn[0m[38;5;12m (http://www.ted.com/talks/jeremy_howard_the_wonderful_and_terrifying_implications_of_computers_that_can_learn) By Jeremy Howard at TEDxBrussels[39m
|
||||
[38;5;12m13. [39m[38;5;14m[1mUnsupervised Deep Learning - Stanford[0m[38;5;12m (http://web.stanford.edu/class/cs294a/handouts.html) by Andrew Ng in Stanford (2011)[39m
|
||||
[38;5;12m14. [39m[38;5;14m[1mNatural Language Processing[0m[38;5;12m (http://web.stanford.edu/class/cs224n/handouts/) By Chris Manning in Stanford[39m
|
||||
[38;5;12m15. [39m[38;5;14m[1mA beginners Guide to Deep Neural Networks[0m[38;5;12m (http://googleresearch.blogspot.com/2015/09/a-beginners-guide-to-deep-neural.html) By Natalie Hammel and Lorraine Yurshansky[39m
|
||||
@@ -133,11 +130,10 @@
|
||||
[38;5;12m18. [39m[38;5;14m[1mNIPS 2016 lecture and workshop videos[0m[38;5;12m (https://nips.cc/Conferences/2016/Schedule) - NIPS 2016[39m
|
||||
[38;5;12m19. [39m[38;5;14m[1mDeep Learning Crash Course[0m[38;5;12m (https://www.youtube.com/watch?v=oS5fz_mHVz0&list=PLWKotBjTDoLj3rXBL-nEIPRN9V3a9Cx07): a series of mini-lectures by Leo Isikdogan on YouTube (2018)[39m
|
||||
[38;5;12m20. [39m[38;5;14m[1mDeep Learning Crash Course[0m[38;5;12m (https://www.manning.com/livevideo/deep-learning-crash-course) By Oliver Zeigermann[39m
|
||||
[38;5;12m21.[39m[38;5;12m [39m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mR[0m[38;5;14m[1m [0m[38;5;14m[1min[0m[38;5;14m[1m [0m[38;5;14m[1mMotion[0m[38;5;12m [39m[38;5;12m(https://www.manning.com/livevideo/deep-learning-with-r-in-motion):[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mlive[39m[38;5;12m [39m[38;5;12mvideo[39m[38;5;12m [39m[38;5;12mcourse[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mteaches[39m[38;5;12m [39m[38;5;12mhow[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mapply[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mlearning[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mtext[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12musing[39m[38;5;12m [39m[38;5;12mthe[39m
|
||||
[38;5;12mpowerful[39m[38;5;12m [39m[38;5;12mKeras[39m[38;5;12m [39m[38;5;12mlibrary[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mits[39m[38;5;12m [39m[38;5;12mR[39m[38;5;12m [39m[38;5;12mlanguage[39m[38;5;12m [39m[38;5;12minterface.[39m
|
||||
[38;5;12m22.[39m[38;5;12m [39m[38;5;14m[1mMedical[0m[38;5;14m[1m [0m[38;5;14m[1mImaging[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;14m[1m [0m[38;5;14m[1mTutorial[0m[38;5;12m [39m[38;5;12m(https://www.youtube.com/playlist?list=PLheiZMDg_8ufxEx9cNVcOYXsT3BppJP4b):[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mtutorial[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mstyled[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mgraduate[39m[38;5;12m [39m[38;5;12mlecture[39m[38;5;12m [39m[38;5;12mabout[39m[38;5;12m [39m[38;5;12mmedical[39m[38;5;12m [39m[38;5;12mimaging[39m
|
||||
[38;5;12mwith[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mlearning.[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mwill[39m[38;5;12m [39m[38;5;12mcover[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mbackground[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mpopular[39m[38;5;12m [39m[38;5;12mmedical[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mdomains[39m[38;5;12m [39m[38;5;12m(chest[39m[38;5;12m [39m[38;5;12mX-ray[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mhistology)[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mmethods[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mtackle[39m[38;5;12m [39m[38;5;12mmulti-modality/view,[39m[38;5;12m [39m[38;5;12msegmentation,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcounting[39m[38;5;12m [39m
|
||||
[38;5;12mtasks.[39m
|
||||
[38;5;12m21.[39m[38;5;12m [39m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mR[0m[38;5;14m[1m [0m[38;5;14m[1min[0m[38;5;14m[1m [0m[38;5;14m[1mMotion[0m[38;5;12m [39m[38;5;12m(https://www.manning.com/livevideo/deep-learning-with-r-in-motion):[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mlive[39m[38;5;12m [39m[38;5;12mvideo[39m[38;5;12m [39m[38;5;12mcourse[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mteaches[39m[38;5;12m [39m[38;5;12mhow[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mapply[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mlearning[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mtext[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12musing[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mpowerful[39m[38;5;12m [39m[38;5;12mKeras[39m[38;5;12m [39m[38;5;12mlibrary[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mits[39m[38;5;12m [39m[38;5;12mR[39m[38;5;12m [39m[38;5;12mlanguage[39m[38;5;12m [39m
|
||||
[38;5;12minterface.[39m
|
||||
[38;5;12m22.[39m[38;5;12m [39m[38;5;14m[1mMedical[0m[38;5;14m[1m [0m[38;5;14m[1mImaging[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mDeep[0m[38;5;14m[1m [0m[38;5;14m[1mLearning[0m[38;5;14m[1m [0m[38;5;14m[1mTutorial[0m[38;5;12m [39m[38;5;12m(https://www.youtube.com/playlist?list=PLheiZMDg_8ufxEx9cNVcOYXsT3BppJP4b):[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mtutorial[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mstyled[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mgraduate[39m[38;5;12m [39m[38;5;12mlecture[39m[38;5;12m [39m[38;5;12mabout[39m[38;5;12m [39m[38;5;12mmedical[39m[38;5;12m [39m[38;5;12mimaging[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mlearning.[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mwill[39m[38;5;12m [39m[38;5;12mcover[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m
|
||||
[38;5;12mbackground[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mpopular[39m[38;5;12m [39m[38;5;12mmedical[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mdomains[39m[38;5;12m [39m[38;5;12m(chest[39m[38;5;12m [39m[38;5;12mX-ray[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mhistology)[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mmethods[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mtackle[39m[38;5;12m [39m[38;5;12mmulti-modality/view,[39m[38;5;12m [39m[38;5;12msegmentation,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcounting[39m[38;5;12m [39m[38;5;12mtasks.[39m
|
||||
[38;5;12m23. [39m[38;5;14m[1mDeepmind x UCL Deeplearning[0m[38;5;12m (https://www.youtube.com/playlist?list=PLqYmG7hTraZCDxZ44o4p3N5Anz3lLRVZF): 2020 version [39m
|
||||
[38;5;12m24. [39m[38;5;14m[1mDeepmind x UCL Reinforcement Learning[0m[38;5;12m (https://www.youtube.com/playlist?list=PLqYmG7hTraZBKeNJ-JE_eyJHZ7XgBoAyb): Deep Reinforcement Learning[39m
|
||||
[38;5;12m25. [39m[38;5;14m[1mCMU 11-785 Intro to Deep learning Spring 2020[0m[38;5;12m (https://www.youtube.com/playlist?list=PLp-0K3kfddPzCnS4CqKphh-zT3aDwybDe) Course: 11-785, Intro to Deep Learning by Bhiksha Raj [39m
|
||||
@@ -232,13 +228,10 @@
|
||||
[38;5;12m18. [39m[38;5;14m[1mDeep Learning with Python[0m[38;5;12m (https://www.manning.com/books/deep-learning-with-python)[39m
|
||||
[38;5;12m19. [39m[38;5;14m[1mGrokking Deep Learning[0m[38;5;12m (https://www.manning.com/books/grokking-deep-learning)[39m
|
||||
[38;5;12m20. [39m[38;5;14m[1mDeep Learning for Search[0m[38;5;12m (https://www.manning.com/books/deep-learning-for-search)[39m
|
||||
[38;5;12m21.[39m[38;5;12m [39m[38;5;14m[1mKeras[0m[38;5;14m[1m [0m[38;5;14m[1mTutorial:[0m[38;5;14m[1m [0m[38;5;14m[1mContent[0m[38;5;14m[1m [0m[38;5;14m[1mBased[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mRetrieval[0m[38;5;14m[1m [0m[38;5;14m[1mUsing[0m[38;5;14m[1m [0m[38;5;14m[1ma[0m[38;5;14m[1m [0m[38;5;14m[1mConvolutional[0m[38;5;14m[1m [0m[38;5;14m[1mDenoising[0m[38;5;14m[1m [0m[38;5;14m[1mAutoencoder[0m[38;5;12m [39m
|
||||
[38;5;12m(https://medium.com/sicara/keras-tutorial-content-based-image-retrieval-convolutional-denoising-autoencoder-dc91450cc511)[39m
|
||||
[38;5;12m21. [39m[38;5;14m[1mKeras Tutorial: Content Based Image Retrieval Using a Convolutional Denoising Autoencoder[0m[38;5;12m (https://medium.com/sicara/keras-tutorial-content-based-image-retrieval-convolutional-denoising-autoencoder-dc91450cc511)[39m
|
||||
[38;5;12m22. [39m[38;5;14m[1mPytorch Tutorial by Yunjey Choi[0m[38;5;12m (https://github.com/yunjey/pytorch-tutorial)[39m
|
||||
[38;5;12m23.[39m[38;5;12m [39m[38;5;14m[1mUnderstanding[0m[38;5;14m[1m [0m[38;5;14m[1mdeep[0m[38;5;14m[1m [0m[38;5;14m[1mConvolutional[0m[38;5;14m[1m [0m[38;5;14m[1mNeural[0m[38;5;14m[1m [0m[38;5;14m[1mNetworks[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1ma[0m[38;5;14m[1m [0m[38;5;14m[1mpractical[0m[38;5;14m[1m [0m[38;5;14m[1muse-case[0m[38;5;14m[1m [0m[38;5;14m[1min[0m[38;5;14m[1m [0m[38;5;14m[1mTensorflow[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mKeras[0m[38;5;12m [39m
|
||||
[38;5;12m(https://ahmedbesbes.com/understanding-deep-convolutional-neural-networks-with-a-practical-use-case-in-tensorflow-and-keras.html)[39m
|
||||
[38;5;12m24.[39m[38;5;12m [39m[38;5;14m[1mOverview[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mbenchmark[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mtraditional[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mdeep[0m[38;5;14m[1m [0m[38;5;14m[1mlearning[0m[38;5;14m[1m [0m[38;5;14m[1mmodels[0m[38;5;14m[1m [0m[38;5;14m[1min[0m[38;5;14m[1m [0m[38;5;14m[1mtext[0m[38;5;14m[1m [0m[38;5;14m[1mclassification[0m[38;5;12m [39m
|
||||
[38;5;12m(https://ahmedbesbes.com/overview-and-benchmark-of-traditional-and-deep-learning-models-in-text-classification.html)[39m
|
||||
[38;5;12m23. [39m[38;5;14m[1mUnderstanding deep Convolutional Neural Networks with a practical use-case in Tensorflow and Keras[0m[38;5;12m (https://ahmedbesbes.com/understanding-deep-convolutional-neural-networks-with-a-practical-use-case-in-tensorflow-and-keras.html)[39m
|
||||
[38;5;12m24. [39m[38;5;14m[1mOverview and benchmark of traditional and deep learning models in text classification[0m[38;5;12m (https://ahmedbesbes.com/overview-and-benchmark-of-traditional-and-deep-learning-models-in-text-classification.html)[39m
|
||||
[38;5;12m25. [39m[38;5;14m[1mHardware for AI: Understanding computer hardware & build your own computer[0m[38;5;12m (https://github.com/MelAbgrall/HardwareforAI)[39m
|
||||
[38;5;12m26. [39m[38;5;14m[1mProgramming Community Curated Resources[0m[38;5;12m (https://hackr.io/tutorials/learn-artificial-intelligence-ai)[39m
|
||||
[38;5;12m27. [39m[38;5;14m[1mThe Illustrated Self-Supervised Learning[0m[38;5;12m (https://amitness.com/2020/02/illustrated-self-supervised-learning/)[39m
|
||||
@@ -416,47 +409,44 @@
|
||||
[38;5;12m13. [39m[38;5;14m[1mImage QA[0m[38;5;12m (http://www.cs.toronto.edu/~mren/imageqa/data/cocoqa/)[39m
|
||||
[38;5;12m14. [39m[38;5;14m[1mAT&T Laboratories Cambridge face database[0m[38;5;12m (http://www.uk.research.att.com/facedatabase.html)[39m
|
||||
[38;5;12m15. [39m[38;5;14m[1mAVHRR Pathfinder[0m[38;5;12m (http://xtreme.gsfc.nasa.gov)[39m
|
||||
[38;5;12m16.[39m[38;5;12m [39m[38;5;14m[1mAir[0m[38;5;14m[1m [0m[38;5;14m[1mFreight[0m[38;5;12m [39m[38;5;12m(http://www.anc.ed.ac.uk/~amos/afreightdata.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mAir[39m[38;5;12m [39m[38;5;12mFreight[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mray-traced[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequence[39m[38;5;12m [39m[38;5;12malong[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12msegmentation[39m[38;5;12m [39m[38;5;12mbased[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mtextural[39m[38;5;12m [39m
|
||||
[38;5;12mcharacteristics.[39m[38;5;12m [39m[38;5;12m(455[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12m+[39m[38;5;12m [39m[38;5;12mGT,[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12m160x120[39m[38;5;12m [39m[38;5;12mpixels).[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mPNG)[39m[38;5;12m [39m
|
||||
[38;5;12m17.[39m[38;5;12m [39m[38;5;14m[1mAmsterdam[0m[38;5;14m[1m [0m[38;5;14m[1mLibrary[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mObject[0m[38;5;14m[1m [0m[38;5;14m[1mImages[0m[38;5;12m [39m[38;5;12m(http://www.science.uva.nl/~aloi/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mALOI[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mone-thousand[39m[38;5;12m [39m[38;5;12msmall[39m[38;5;12m [39m[38;5;12mobjects,[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mscientific[39m[38;5;12m [39m[38;5;12mpurposes.[39m[38;5;12m [39m[38;5;12mIn[39m[38;5;12m [39m[38;5;12morder[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m
|
||||
[38;5;12mcapture[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12msensory[39m[38;5;12m [39m[38;5;12mvariation[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mrecordings,[39m[38;5;12m [39m[38;5;12mwe[39m[38;5;12m [39m[38;5;12msystematically[39m[38;5;12m [39m[38;5;12mvaried[39m[38;5;12m [39m[38;5;12mviewing[39m[38;5;12m [39m[38;5;12mangle,[39m[38;5;12m [39m[38;5;12millumination[39m[38;5;12m [39m[38;5;12mangle,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12millumination[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mobject,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12madditionally[39m[38;5;12m [39m[38;5;12mcaptured[39m[38;5;12m [39m[38;5;12mwide-baseline[39m
|
||||
[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12mWe[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mhundred[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mobject,[39m[38;5;12m [39m[38;5;12myielding[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtotal[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m110,250[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mcollection.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mpng)[39m
|
||||
[38;5;12m16.[39m[38;5;12m [39m[38;5;14m[1mAir[0m[38;5;14m[1m [0m[38;5;14m[1mFreight[0m[38;5;12m [39m[38;5;12m(http://www.anc.ed.ac.uk/~amos/afreightdata.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mAir[39m[38;5;12m [39m[38;5;12mFreight[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mray-traced[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequence[39m[38;5;12m [39m[38;5;12malong[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12msegmentation[39m[38;5;12m [39m[38;5;12mbased[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mtextural[39m[38;5;12m [39m[38;5;12mcharacteristics.[39m[38;5;12m [39m[38;5;12m(455[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12m+[39m[38;5;12m [39m[38;5;12mGT,[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12m160x120[39m[38;5;12m [39m[38;5;12mpixels).[39m[38;5;12m [39m
|
||||
[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mPNG)[39m[38;5;12m [39m
|
||||
[38;5;12m17.[39m[38;5;12m [39m[38;5;14m[1mAmsterdam[0m[38;5;14m[1m [0m[38;5;14m[1mLibrary[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mObject[0m[38;5;14m[1m [0m[38;5;14m[1mImages[0m[38;5;12m [39m[38;5;12m(http://www.science.uva.nl/~aloi/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mALOI[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mone-thousand[39m[38;5;12m [39m[38;5;12msmall[39m[38;5;12m [39m[38;5;12mobjects,[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mscientific[39m[38;5;12m [39m[38;5;12mpurposes.[39m[38;5;12m [39m[38;5;12mIn[39m[38;5;12m [39m[38;5;12morder[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mcapture[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12msensory[39m[38;5;12m [39m[38;5;12mvariation[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m
|
||||
[38;5;12mrecordings,[39m[38;5;12m [39m[38;5;12mwe[39m[38;5;12m [39m[38;5;12msystematically[39m[38;5;12m [39m[38;5;12mvaried[39m[38;5;12m [39m[38;5;12mviewing[39m[38;5;12m [39m[38;5;12mangle,[39m[38;5;12m [39m[38;5;12millumination[39m[38;5;12m [39m[38;5;12mangle,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12millumination[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mobject,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12madditionally[39m[38;5;12m [39m[38;5;12mcaptured[39m[38;5;12m [39m[38;5;12mwide-baseline[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12mWe[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mhundred[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mobject,[39m[38;5;12m [39m[38;5;12myielding[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtotal[39m[38;5;12m [39m[38;5;12mof[39m
|
||||
[38;5;12m110,250[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mcollection.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mpng)[39m
|
||||
[38;5;12m18. [39m[38;5;14m[1mAnnotated face, hand, cardiac & meat images[0m[38;5;12m (http://www.imm.dtu.dk/~aam/) - Most images & annotations are supplemented by various ASM/AAM analyses using the AAM-API. (Formats: bmp,asf)[39m
|
||||
[38;5;12m19. [39m[38;5;14m[1mImage Analysis and Computer Graphics[0m[38;5;12m (http://www.imm.dtu.dk/image/) [39m
|
||||
[38;5;12m21.[39m[38;5;12m [39m[38;5;14m[1mBrown[0m[38;5;14m[1m [0m[38;5;14m[1mUniversity[0m[38;5;14m[1m [0m[38;5;14m[1mStimuli[0m[38;5;12m [39m[38;5;12m(http://www.cog.brown.edu/~tarr/stimuli.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mvariety[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mdatasets[39m[38;5;12m [39m[38;5;12mincluding[39m[38;5;12m [39m[38;5;12mgeons,[39m[38;5;12m [39m[38;5;12mobjects,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12m"greebles".[39m[38;5;12m [39m[38;5;12mGood[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12mrecognition[39m[38;5;12m [39m[38;5;12malgorithms.[39m[38;5;12m [39m[38;5;12m(Formats:[39m
|
||||
[38;5;12mpict)[39m
|
||||
[38;5;12m22.[39m[38;5;12m [39m[38;5;14m[1mCAVIAR[0m[38;5;14m[1m [0m[38;5;14m[1mvideo[0m[38;5;14m[1m [0m[38;5;14m[1msequences[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mmall[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mpublic[0m[38;5;14m[1m [0m[38;5;14m[1mspace[0m[38;5;14m[1m [0m[38;5;14m[1mbehavior[0m[38;5;12m [39m[38;5;12m(http://homepages.inf.ed.ac.uk/rbf/CAVIARDATA1/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m90K[39m[38;5;12m [39m[38;5;12mvideo[39m[38;5;12m [39m[38;5;12mframes[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12m90[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mvarious[39m[38;5;12m [39m[38;5;12mhuman[39m[38;5;12m [39m[38;5;12mactivities,[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mXML[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m
|
||||
[38;5;12mtruth[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mdetection[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mbehavior[39m[38;5;12m [39m[38;5;12mclassification[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mMPEG2[39m[38;5;12m [39m[38;5;12m&[39m[38;5;12m [39m[38;5;12mJPEG)[39m
|
||||
[38;5;12m21. [39m[38;5;14m[1mBrown University Stimuli[0m[38;5;12m (http://www.cog.brown.edu/~tarr/stimuli.html) - A variety of datasets including geons, objects, and "greebles". Good for testing recognition algorithms. (Formats: pict)[39m
|
||||
[38;5;12m22.[39m[38;5;12m [39m[38;5;14m[1mCAVIAR[0m[38;5;14m[1m [0m[38;5;14m[1mvideo[0m[38;5;14m[1m [0m[38;5;14m[1msequences[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mmall[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mpublic[0m[38;5;14m[1m [0m[38;5;14m[1mspace[0m[38;5;14m[1m [0m[38;5;14m[1mbehavior[0m[38;5;12m [39m[38;5;12m(http://homepages.inf.ed.ac.uk/rbf/CAVIARDATA1/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m90K[39m[38;5;12m [39m[38;5;12mvideo[39m[38;5;12m [39m[38;5;12mframes[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12m90[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mvarious[39m[38;5;12m [39m[38;5;12mhuman[39m[38;5;12m [39m[38;5;12mactivities,[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mXML[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mdetection[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mbehavior[39m[38;5;12m [39m[38;5;12mclassification[39m
|
||||
[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mMPEG2[39m[38;5;12m [39m[38;5;12m&[39m[38;5;12m [39m[38;5;12mJPEG)[39m
|
||||
[38;5;12m23. [39m[38;5;14m[1mMachine Vision Unit[0m[38;5;12m (http://www.ipab.inf.ed.ac.uk/mvu/)[39m
|
||||
[38;5;12m25. [39m[38;5;14m[1mCCITT Fax standard images[0m[38;5;12m (http://www.cs.waikato.ac.nz/~singlis/ccitt.html) - 8 images (Formats: gif)[39m
|
||||
[38;5;12m26. [39m[38;5;14m[1mCMU CIL's Stereo Data with Ground Truth[0m[38;5;12m (cil-ster.html) - 3 sets of 11 images, including color tiff images with spectroradiometry (Formats: gif, tiff)[39m
|
||||
[38;5;12m27.[39m[38;5;12m [39m[38;5;14m[1mCMU[0m[38;5;14m[1m [0m[38;5;14m[1mPIE[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.ri.cmu.edu/projects/project_418.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m41,368[39m[38;5;12m [39m[38;5;12mface[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m68[39m[38;5;12m [39m[38;5;12mpeople[39m[38;5;12m [39m[38;5;12mcaptured[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12m13[39m[38;5;12m [39m[38;5;12mposes,[39m[38;5;12m [39m[38;5;12m43[39m[38;5;12m [39m[38;5;12milluminations[39m[38;5;12m [39m[38;5;12mconditions,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m4[39m[38;5;12m [39m
|
||||
[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mexpressions.[39m
|
||||
[38;5;12m27. [39m[38;5;14m[1mCMU PIE Database[0m[38;5;12m (http://www.ri.cmu.edu/projects/project_418.html) - A database of 41,368 face images of 68 people captured under 13 poses, 43 illuminations conditions, and with 4 different expressions.[39m
|
||||
[38;5;12m28. [39m[38;5;14m[1mCMU VASC Image Database[0m[38;5;12m (http://www.ius.cs.cmu.edu/idb/) - Images, sequences, stereo pairs (thousands of images) (Formats: Sun Rasterimage)[39m
|
||||
[38;5;12m29. [39m[38;5;14m[1mCaltech Image Database[0m[38;5;12m (http://www.vision.caltech.edu/html-files/archive.html) - about 20 images - mostly top-down views of small objects and toys. (Formats: GIF)[39m
|
||||
[38;5;12m30.[39m[38;5;12m [39m[38;5;14m[1mColumbia-Utrecht[0m[38;5;14m[1m [0m[38;5;14m[1mReflectance[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.cs.columbia.edu/CAVE/curet/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mTexture[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mreflectance[39m[38;5;12m [39m[38;5;12mmeasurements[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m60[39m[38;5;12m [39m[38;5;12msamples[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mtexture,[39m[38;5;12m [39m[38;5;12mobserved[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m200[39m
|
||||
[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mcombinations[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mviewing[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12millumination[39m[38;5;12m [39m[38;5;12mdirections.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mbmp)[39m
|
||||
[38;5;12m31.[39m[38;5;12m [39m[38;5;14m[1mComputational[0m[38;5;14m[1m [0m[38;5;14m[1mColour[0m[38;5;14m[1m [0m[38;5;14m[1mConstancy[0m[38;5;14m[1m [0m[38;5;14m[1mData[0m[38;5;12m [39m[38;5;12m(http://www.cs.sfu.ca/~colour/data/index.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12moriented[39m[38;5;12m [39m[38;5;12mtowards[39m[38;5;12m [39m[38;5;12mcomputational[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mconstancy,[39m[38;5;12m [39m[38;5;12mbut[39m[38;5;12m [39m[38;5;12museful[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mcomputer[39m[38;5;12m [39m[38;5;12mvision[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mgeneral.[39m[38;5;12m [39m
|
||||
[38;5;12mIt[39m[38;5;12m [39m[38;5;12mincludes[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mdata,[39m[38;5;12m [39m[38;5;12mcamera[39m[38;5;12m [39m[38;5;12msensor[39m[38;5;12m [39m[38;5;12mdata,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m700[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m30.[39m[38;5;12m [39m[38;5;14m[1mColumbia-Utrecht[0m[38;5;14m[1m [0m[38;5;14m[1mReflectance[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.cs.columbia.edu/CAVE/curet/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mTexture[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mreflectance[39m[38;5;12m [39m[38;5;12mmeasurements[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m60[39m[38;5;12m [39m[38;5;12msamples[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mtexture,[39m[38;5;12m [39m[38;5;12mobserved[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m200[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mcombinations[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mviewing[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m
|
||||
[38;5;12millumination[39m[38;5;12m [39m[38;5;12mdirections.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mbmp)[39m
|
||||
[38;5;12m31.[39m[38;5;12m [39m[38;5;14m[1mComputational[0m[38;5;14m[1m [0m[38;5;14m[1mColour[0m[38;5;14m[1m [0m[38;5;14m[1mConstancy[0m[38;5;14m[1m [0m[38;5;14m[1mData[0m[38;5;12m [39m[38;5;12m(http://www.cs.sfu.ca/~colour/data/index.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12moriented[39m[38;5;12m [39m[38;5;12mtowards[39m[38;5;12m [39m[38;5;12mcomputational[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mconstancy,[39m[38;5;12m [39m[38;5;12mbut[39m[38;5;12m [39m[38;5;12museful[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mcomputer[39m[38;5;12m [39m[38;5;12mvision[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mgeneral.[39m[38;5;12m [39m[38;5;12mIt[39m[38;5;12m [39m[38;5;12mincludes[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mdata,[39m[38;5;12m [39m[38;5;12mcamera[39m[38;5;12m [39m[38;5;12msensor[39m[38;5;12m [39m
|
||||
[38;5;12mdata,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m700[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m32. [39m[38;5;14m[1mComputational Vision Lab[0m[38;5;12m (http://www.cs.sfu.ca/~colour/)[39m
|
||||
[38;5;12m34.[39m[38;5;12m [39m[38;5;14m[1mContent-based[0m[38;5;14m[1m [0m[38;5;14m[1mimage[0m[38;5;14m[1m [0m[38;5;14m[1mretrieval[0m[38;5;14m[1m [0m[38;5;14m[1mdatabase[0m[38;5;12m [39m[38;5;12m(http://www.cs.washington.edu/research/imagedatabase/groundtruth/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m11[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mcontent-based[39m[38;5;12m [39m[38;5;12mretrieval.[39m[38;5;12m [39m
|
||||
[38;5;12mMost[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mhave[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mdescription[39m[38;5;12m [39m[38;5;12mfile[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mnames[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mimage.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mjpg)[39m
|
||||
[38;5;12m34.[39m[38;5;12m [39m[38;5;14m[1mContent-based[0m[38;5;14m[1m [0m[38;5;14m[1mimage[0m[38;5;14m[1m [0m[38;5;14m[1mretrieval[0m[38;5;14m[1m [0m[38;5;14m[1mdatabase[0m[38;5;12m [39m[38;5;12m(http://www.cs.washington.edu/research/imagedatabase/groundtruth/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m11[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mcontent-based[39m[38;5;12m [39m[38;5;12mretrieval.[39m[38;5;12m [39m[38;5;12mMost[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mhave[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mdescription[39m[38;5;12m [39m[38;5;12mfile[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mnames[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m
|
||||
[38;5;12mobjects[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mimage.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mjpg)[39m
|
||||
[38;5;12m35. [39m[38;5;14m[1mEfficient Content-based Retrieval Group[0m[38;5;12m (http://www.cs.washington.edu/research/imagedatabase/)[39m
|
||||
[38;5;12m37.[39m[38;5;12m [39m[38;5;14m[1mDensely[0m[38;5;14m[1m [0m[38;5;14m[1mSampled[0m[38;5;14m[1m [0m[38;5;14m[1mView[0m[38;5;14m[1m [0m[38;5;14m[1mSpheres[0m[38;5;12m [39m[38;5;12m(http://ls7-www.cs.uni-dortmund.de/~peters/pages/research/modeladaptsys/modeladaptsys_vba_rov.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDensely[39m[38;5;12m [39m[38;5;12msampled[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12mspheres[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mupper[39m[38;5;12m [39m[38;5;12mhalf[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m
|
||||
[38;5;12msphere[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mtwo[39m[38;5;12m [39m[38;5;12mtoy[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m2500[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12meach.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m37.[39m[38;5;12m [39m[38;5;14m[1mDensely[0m[38;5;14m[1m [0m[38;5;14m[1mSampled[0m[38;5;14m[1m [0m[38;5;14m[1mView[0m[38;5;14m[1m [0m[38;5;14m[1mSpheres[0m[38;5;12m [39m[38;5;12m(http://ls7-www.cs.uni-dortmund.de/~peters/pages/research/modeladaptsys/modeladaptsys_vba_rov.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDensely[39m[38;5;12m [39m[38;5;12msampled[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12mspheres[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mupper[39m[38;5;12m [39m[38;5;12mhalf[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12msphere[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mtwo[39m[38;5;12m [39m[38;5;12mtoy[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m2500[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m
|
||||
[38;5;12meach.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m38. [39m[38;5;14m[1mComputer Science VII (Graphical Systems)[0m[38;5;12m (http://ls7-www.cs.uni-dortmund.de/)[39m
|
||||
[38;5;12m40.[39m[38;5;12m [39m[38;5;14m[1mDigital[0m[38;5;14m[1m [0m[38;5;14m[1mEmbryos[0m[38;5;12m [39m[38;5;12m(https://web-beta.archive.org/web/20011216051535/vision.psych.umn.edu/www/kersten-lab/demos/digitalembryo.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDigital[39m[38;5;12m [39m[38;5;12membryos[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mnovel[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mwhich[39m[38;5;12m [39m[38;5;12mmay[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m
|
||||
[38;5;12mdevelop[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mrecognition[39m[38;5;12m [39m[38;5;12msystems.[39m[38;5;12m [39m[38;5;12mThey[39m[38;5;12m [39m[38;5;12mhave[39m[38;5;12m [39m[38;5;12man[39m[38;5;12m [39m[38;5;12morganic[39m[38;5;12m [39m[38;5;12mappearance.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mvarious[39m[38;5;12m [39m[38;5;12mformats[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mavailable[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mrequest)[39m
|
||||
[38;5;12m40.[39m[38;5;12m [39m[38;5;14m[1mDigital[0m[38;5;14m[1m [0m[38;5;14m[1mEmbryos[0m[38;5;12m [39m[38;5;12m(https://web-beta.archive.org/web/20011216051535/vision.psych.umn.edu/www/kersten-lab/demos/digitalembryo.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDigital[39m[38;5;12m [39m[38;5;12membryos[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mnovel[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mwhich[39m[38;5;12m [39m[38;5;12mmay[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mdevelop[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mrecognition[39m[38;5;12m [39m[38;5;12msystems.[39m[38;5;12m [39m
|
||||
[38;5;12mThey[39m[38;5;12m [39m[38;5;12mhave[39m[38;5;12m [39m[38;5;12man[39m[38;5;12m [39m[38;5;12morganic[39m[38;5;12m [39m[38;5;12mappearance.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mvarious[39m[38;5;12m [39m[38;5;12mformats[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mavailable[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mrequest)[39m
|
||||
[38;5;12m41. [39m[38;5;14m[1mUniverity of Minnesota Vision Lab[0m[38;5;12m (http://vision.psych.umn.edu/users/kersten//kersten-lab/kersten-lab.html) [39m
|
||||
[38;5;12m42.[39m[38;5;12m [39m[38;5;14m[1mEl[0m[38;5;14m[1m [0m[38;5;14m[1mSalvador[0m[38;5;14m[1m [0m[38;5;14m[1mAtlas[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mGastrointestinal[0m[38;5;14m[1m [0m[38;5;14m[1mVideoEndoscopy[0m[38;5;12m [39m[38;5;12m(http://www.gastrointestinalatlas.com)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mImages[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mVideos[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mhis-res[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mstudies[39m[38;5;12m [39m[38;5;12mtaken[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12mGastrointestinal[39m[38;5;12m [39m[38;5;12mVideo[39m[38;5;12m [39m[38;5;12mendoscopy.[39m[38;5;12m [39m
|
||||
[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mjpg,[39m[38;5;12m [39m[38;5;12mmpg,[39m[38;5;12m [39m[38;5;12mgif)[39m
|
||||
[38;5;12m42. [39m[38;5;14m[1mEl Salvador Atlas of Gastrointestinal VideoEndoscopy[0m[38;5;12m (http://www.gastrointestinalatlas.com) - Images and Videos of his-res of studies taken from Gastrointestinal Video endoscopy. (Formats: jpg, mpg, gif)[39m
|
||||
[38;5;12m43. [39m[38;5;14m[1mFG-NET Facial Aging Database[0m[38;5;12m (http://sting.cycollege.ac.cy/~alanitis/fgnetaging/index.htm) - Database contains 1002 face images showing subjects at different ages. (Formats: jpg)[39m
|
||||
[38;5;12m44.[39m[38;5;12m [39m[38;5;14m[1mFVC2000[0m[38;5;14m[1m [0m[38;5;14m[1mFingerprint[0m[38;5;14m[1m [0m[38;5;14m[1mDatabases[0m[38;5;12m [39m[38;5;12m(http://bias.csr.unibo.it/fvc2000/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mFVC2000[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mFirst[39m[38;5;12m [39m[38;5;12mInternational[39m[38;5;12m [39m[38;5;12mCompetition[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mFingerprint[39m[38;5;12m [39m[38;5;12mVerification[39m[38;5;12m [39m[38;5;12mAlgorithms.[39m[38;5;12m [39m[38;5;12mFour[39m[38;5;12m [39m[38;5;12mfingerprint[39m[38;5;12m [39m[38;5;12mdatabases[39m[38;5;12m [39m
|
||||
[38;5;12mconstitute[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mFVC2000[39m[38;5;12m [39m[38;5;12mbenchmark[39m[38;5;12m [39m[38;5;12m(3520[39m[38;5;12m [39m[38;5;12mfingerprints[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mall).[39m
|
||||
[38;5;12m44.[39m[38;5;12m [39m[38;5;14m[1mFVC2000[0m[38;5;14m[1m [0m[38;5;14m[1mFingerprint[0m[38;5;14m[1m [0m[38;5;14m[1mDatabases[0m[38;5;12m [39m[38;5;12m(http://bias.csr.unibo.it/fvc2000/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mFVC2000[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mFirst[39m[38;5;12m [39m[38;5;12mInternational[39m[38;5;12m [39m[38;5;12mCompetition[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mFingerprint[39m[38;5;12m [39m[38;5;12mVerification[39m[38;5;12m [39m[38;5;12mAlgorithms.[39m[38;5;12m [39m[38;5;12mFour[39m[38;5;12m [39m[38;5;12mfingerprint[39m[38;5;12m [39m[38;5;12mdatabases[39m[38;5;12m [39m[38;5;12mconstitute[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mFVC2000[39m[38;5;12m [39m[38;5;12mbenchmark[39m[38;5;12m [39m[38;5;12m(3520[39m[38;5;12m [39m
|
||||
[38;5;12mfingerprints[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mall).[39m
|
||||
[38;5;12m45. [39m[38;5;14m[1mBiometric Systems Lab[0m[38;5;12m (http://biolab.csr.unibo.it/home.asp) - University of Bologna[39m
|
||||
[38;5;12m46. [39m[38;5;14m[1mFace and Gesture images and image sequences[0m[38;5;12m (http://www.fg-net.org) - Several image datasets of faces and gestures that are ground truth annotated for benchmarking[39m
|
||||
[38;5;12m47.[39m[38;5;12m [39m[38;5;14m[1mGerman[0m[38;5;14m[1m [0m[38;5;14m[1mFingerspelling[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www-i6.informatik.rwth-aachen.de/~dreuw/database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m35[39m[38;5;12m [39m[38;5;12mgestures[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mconsists[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m1400[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mcontain[39m[38;5;12m [39m
|
||||
[38;5;12mgestures[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m20[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mpersons[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mnon-uniform[39m[38;5;12m [39m[38;5;12mdaylight[39m[38;5;12m [39m[38;5;12mlighting[39m[38;5;12m [39m[38;5;12mconditions.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mmpg,jpg)[39m[38;5;12m [39m
|
||||
[38;5;12m47.[39m[38;5;12m [39m[38;5;14m[1mGerman[0m[38;5;14m[1m [0m[38;5;14m[1mFingerspelling[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www-i6.informatik.rwth-aachen.de/~dreuw/database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m35[39m[38;5;12m [39m[38;5;12mgestures[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mconsists[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m1400[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mcontain[39m[38;5;12m [39m[38;5;12mgestures[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m20[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mpersons[39m[38;5;12m [39m[38;5;12mrecorded[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m
|
||||
[38;5;12mnon-uniform[39m[38;5;12m [39m[38;5;12mdaylight[39m[38;5;12m [39m[38;5;12mlighting[39m[38;5;12m [39m[38;5;12mconditions.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mmpg,jpg)[39m[38;5;12m [39m
|
||||
[38;5;12m48. [39m[38;5;14m[1mLanguage Processing and Pattern Recognition[0m[38;5;12m (http://www-i6.informatik.rwth-aachen.de/)[39m
|
||||
[38;5;12m50. [39m[38;5;14m[1mGroningen Natural Image Database[0m[38;5;12m (http://hlab.phys.rug.nl/archive.html) - 4000+ 1536x1024 (16 bit) calibrated outdoor images (Formats: homebrew)[39m
|
||||
[38;5;12m51. [39m[38;5;14m[1mICG Testhouse sequence[0m[38;5;12m (http://www.icg.tu-graz.ac.at/~schindler/Data) - 2 turntable sequences from different viewing heights, 36 images each, resolution 1000x750, color (Formats: PPM)[39m
|
||||
@@ -465,115 +455,100 @@
|
||||
[38;5;12m55. [39m[38;5;14m[1mINRIA's Syntim images database[0m[38;5;12m (http://www-rocq.inria.fr/~tarel/syntim/images.html) - 15 color image of simple objects (Formats: gif)[39m
|
||||
[38;5;12m56. [39m[38;5;14m[1mINRIA[0m[38;5;12m (http://www.inria.fr/)[39m
|
||||
[38;5;12m57. [39m[38;5;14m[1mINRIA's Syntim stereo databases[0m[38;5;12m (http://www-rocq.inria.fr/~tarel/syntim/paires.html) - 34 calibrated color stereo pairs (Formats: gif)[39m
|
||||
[38;5;12m58.[39m[38;5;12m [39m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mAnalysis[0m[38;5;14m[1m [0m[38;5;14m[1mLaboratory[0m[38;5;12m [39m[38;5;12m(http://www.ece.ncsu.edu/imaging/Archives/ImageDataBase/index.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mImages[39m[38;5;12m [39m[38;5;12mobtained[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mvariety[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mimaging[39m[38;5;12m [39m[38;5;12mmodalities[39m[38;5;12m [39m[38;5;12m--[39m[38;5;12m [39m[38;5;12mraw[39m[38;5;12m [39m[38;5;12mCFA[39m[38;5;12m [39m[38;5;12mimages,[39m[38;5;12m [39m[38;5;12mrange[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m
|
||||
[38;5;12mhost[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m"medical[39m[38;5;12m [39m[38;5;12mimages".[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mhomebrew)[39m
|
||||
[38;5;12m58. [39m[38;5;14m[1mImage Analysis Laboratory[0m[38;5;12m (http://www.ece.ncsu.edu/imaging/Archives/ImageDataBase/index.html) - Images obtained from a variety of imaging modalities -- raw CFA images, range images and a host of "medical images". (Formats: homebrew)[39m
|
||||
[38;5;12m59. [39m[38;5;14m[1mImage Analysis Laboratory[0m[38;5;12m (http://www.ece.ncsu.edu/imaging)[39m
|
||||
[38;5;12m61. [39m[38;5;14m[1mImage Database[0m[38;5;12m (http://www.prip.tuwien.ac.at/prip/image.html) - An image database including some textures [39m
|
||||
[38;5;12m62.[39m[38;5;12m [39m[38;5;14m[1mJAFFE[0m[38;5;14m[1m [0m[38;5;14m[1mFacial[0m[38;5;14m[1m [0m[38;5;14m[1mExpression[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.mis.atr.co.jp/~mlyons/jaffe.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mJAFFE[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mconsists[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m213[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mJapanese[39m[38;5;12m [39m[38;5;12mfemale[39m[38;5;12m [39m[38;5;12msubjects[39m[38;5;12m [39m[38;5;12mposing[39m[38;5;12m [39m[38;5;12m6[39m[38;5;12m [39m[38;5;12mbasic[39m[38;5;12m [39m[38;5;12mfacial[39m[38;5;12m [39m
|
||||
[38;5;12mexpressions[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mneutral[39m[38;5;12m [39m[38;5;12mpose.[39m[38;5;12m [39m[38;5;12mRatings[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12memotion[39m[38;5;12m [39m[38;5;12madjectives[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12malso[39m[38;5;12m [39m[38;5;12mavailable,[39m[38;5;12m [39m[38;5;12mfree[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mcharge,[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mresearch[39m[38;5;12m [39m[38;5;12mpurposes.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF[39m[38;5;12m [39m[38;5;12mGrayscale[39m[38;5;12m [39m[38;5;12mimages.)[39m
|
||||
[38;5;12m62.[39m[38;5;12m [39m[38;5;14m[1mJAFFE[0m[38;5;14m[1m [0m[38;5;14m[1mFacial[0m[38;5;14m[1m [0m[38;5;14m[1mExpression[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.mis.atr.co.jp/~mlyons/jaffe.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mJAFFE[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mconsists[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m213[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mJapanese[39m[38;5;12m [39m[38;5;12mfemale[39m[38;5;12m [39m[38;5;12msubjects[39m[38;5;12m [39m[38;5;12mposing[39m[38;5;12m [39m[38;5;12m6[39m[38;5;12m [39m[38;5;12mbasic[39m[38;5;12m [39m[38;5;12mfacial[39m[38;5;12m [39m[38;5;12mexpressions[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mneutral[39m[38;5;12m [39m[38;5;12mpose.[39m[38;5;12m [39m[38;5;12mRatings[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m
|
||||
[38;5;12memotion[39m[38;5;12m [39m[38;5;12madjectives[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12malso[39m[38;5;12m [39m[38;5;12mavailable,[39m[38;5;12m [39m[38;5;12mfree[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mcharge,[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mresearch[39m[38;5;12m [39m[38;5;12mpurposes.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF[39m[38;5;12m [39m[38;5;12mGrayscale[39m[38;5;12m [39m[38;5;12mimages.)[39m
|
||||
[38;5;12m63. [39m[38;5;14m[1mATR Research, Kyoto, Japan[0m[38;5;12m (http://www.mic.atr.co.jp/)[39m
|
||||
[38;5;12m64.[39m[38;5;12m [39m[38;5;14m[1mJISCT[0m[38;5;14m[1m [0m[38;5;14m[1mStereo[0m[38;5;14m[1m [0m[38;5;14m[1mEvaluation[0m[38;5;12m [39m[38;5;12m(ftp://ftp.vislist.com/IMAGERY/JISCT/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m44[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mpairs.[39m[38;5;12m [39m[38;5;12mThese[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mhave[39m[38;5;12m [39m[38;5;12mbeen[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12man[39m[38;5;12m [39m[38;5;12mevaluation[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12manalysis,[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mdescribed[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mApril[39m[38;5;12m [39m[38;5;12m1993[39m[38;5;12m [39m[38;5;12mARPA[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m
|
||||
[38;5;12mUnderstanding[39m[38;5;12m [39m[38;5;12mWorkshop[39m[38;5;12m [39m[38;5;12mpaper[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mJISCT[39m[38;5;12m [39m[38;5;12mStereo[39m[38;5;12m [39m[38;5;12mEvaluation''[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mR.C.Bolles,[39m[38;5;12m [39m[38;5;12mH.H.Baker,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mM.J.Hannah,[39m[38;5;12m [39m[38;5;12m263--274[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mSSI)[39m
|
||||
[38;5;12m64.[39m[38;5;12m [39m[38;5;14m[1mJISCT[0m[38;5;14m[1m [0m[38;5;14m[1mStereo[0m[38;5;14m[1m [0m[38;5;14m[1mEvaluation[0m[38;5;12m [39m[38;5;12m(ftp://ftp.vislist.com/IMAGERY/JISCT/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m44[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mpairs.[39m[38;5;12m [39m[38;5;12mThese[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mhave[39m[38;5;12m [39m[38;5;12mbeen[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12man[39m[38;5;12m [39m[38;5;12mevaluation[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12manalysis,[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mdescribed[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mApril[39m[38;5;12m [39m[38;5;12m1993[39m[38;5;12m [39m[38;5;12mARPA[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mUnderstanding[39m[38;5;12m [39m[38;5;12mWorkshop[39m[38;5;12m [39m[38;5;12mpaper[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mJISCT[39m[38;5;12m [39m[38;5;12mStereo[39m[38;5;12m [39m
|
||||
[38;5;12mEvaluation''[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mR.C.Bolles,[39m[38;5;12m [39m[38;5;12mH.H.Baker,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mM.J.Hannah,[39m[38;5;12m [39m[38;5;12m263--274[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mSSI)[39m
|
||||
[38;5;12m65. [39m[38;5;14m[1mMIT Vision Texture[0m[38;5;12m (https://vismod.media.mit.edu/vismod/imagery/VisionTexture/vistex.html) - Image archive (100+ images) (Formats: ppm)[39m
|
||||
[38;5;12m66. [39m[38;5;14m[1mMIT face images and more[0m[38;5;12m (ftp://whitechapel.media.mit.edu/pub/images) - hundreds of images (Formats: homebrew)[39m
|
||||
[38;5;12m67. [39m[38;5;14m[1mMachine Vision[0m[38;5;12m (http://vision.cse.psu.edu/book/testbed/images/) - Images from the textbook by Jain, Kasturi, Schunck (20+ images) (Formats: GIF TIFF)[39m
|
||||
[38;5;12m68.[39m[38;5;12m [39m[38;5;14m[1mMammography[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mDatabases[0m[38;5;12m [39m[38;5;12m(http://marathon.csee.usf.edu/Mammography/Database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m100[39m[38;5;12m [39m[38;5;12mor[39m[38;5;12m [39m[38;5;12mmore[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mmammograms[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth.[39m[38;5;12m [39m[38;5;12mAdditional[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mavailable[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mrequest,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m
|
||||
[38;5;12mlinks[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12mother[39m[38;5;12m [39m[38;5;12mmammography[39m[38;5;12m [39m[38;5;12mdatabases[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mprovided.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mhomebrew)[39m
|
||||
[38;5;12m68.[39m[38;5;12m [39m[38;5;14m[1mMammography[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mDatabases[0m[38;5;12m [39m[38;5;12m(http://marathon.csee.usf.edu/Mammography/Database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m100[39m[38;5;12m [39m[38;5;12mor[39m[38;5;12m [39m[38;5;12mmore[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mmammograms[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth.[39m[38;5;12m [39m[38;5;12mAdditional[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mavailable[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mrequest,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mlinks[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12mother[39m[38;5;12m [39m[38;5;12mmammography[39m[38;5;12m [39m[38;5;12mdatabases[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m
|
||||
[38;5;12mprovided.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mhomebrew)[39m
|
||||
[38;5;12m69. [39m[38;5;14m[1mftp://ftp.cps.msu.edu/pub/prip[0m[38;5;12m (ftp://ftp.cps.msu.edu/pub/prip) - many images (Formats: unknown)[39m
|
||||
[38;5;12m70.[39m[38;5;12m [39m[38;5;14m[1mMiddlebury[0m[38;5;14m[1m [0m[38;5;14m[1mStereo[0m[38;5;14m[1m [0m[38;5;14m[1mData[0m[38;5;14m[1m [0m[38;5;14m[1mSets[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mGround[0m[38;5;14m[1m [0m[38;5;14m[1mTruth[0m[38;5;12m [39m[38;5;12m(http://www.middlebury.edu/stereo/data.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSix[39m[38;5;12m [39m[38;5;12mmulti-frame[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mscenes[39m[38;5;12m [39m[38;5;12mcontaining[39m[38;5;12m [39m[38;5;12mplanar[39m[38;5;12m [39m[38;5;12mregions.[39m[38;5;12m [39m[38;5;12mEach[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m9[39m
|
||||
[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12msubpixel-accuracy[39m[38;5;12m [39m[38;5;12mground-truth[39m[38;5;12m [39m[38;5;12mdata.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm)[39m
|
||||
[38;5;12m70.[39m[38;5;12m [39m[38;5;14m[1mMiddlebury[0m[38;5;14m[1m [0m[38;5;14m[1mStereo[0m[38;5;14m[1m [0m[38;5;14m[1mData[0m[38;5;14m[1m [0m[38;5;14m[1mSets[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mGround[0m[38;5;14m[1m [0m[38;5;14m[1mTruth[0m[38;5;12m [39m[38;5;12m(http://www.middlebury.edu/stereo/data.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSix[39m[38;5;12m [39m[38;5;12mmulti-frame[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mscenes[39m[38;5;12m [39m[38;5;12mcontaining[39m[38;5;12m [39m[38;5;12mplanar[39m[38;5;12m [39m[38;5;12mregions.[39m[38;5;12m [39m[38;5;12mEach[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m9[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12msubpixel-accuracy[39m[38;5;12m [39m
|
||||
[38;5;12mground-truth[39m[38;5;12m [39m[38;5;12mdata.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm)[39m
|
||||
[38;5;12m71. [39m[38;5;14m[1mMiddlebury Stereo Vision Research Page[0m[38;5;12m (http://www.middlebury.edu/stereo) - Middlebury College[39m
|
||||
[38;5;12m72.[39m[38;5;12m [39m[38;5;14m[1mModis[0m[38;5;14m[1m [0m[38;5;14m[1mAirborne[0m[38;5;14m[1m [0m[38;5;14m[1msimulator,[0m[38;5;14m[1m [0m[38;5;14m[1mGallery[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mdata[0m[38;5;14m[1m [0m[38;5;14m[1mset[0m[38;5;12m [39m[38;5;12m(http://ltpwww.gsfc.nasa.gov/MODIS/MAS/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mHigh[39m[38;5;12m [39m[38;5;12mAltitude[39m[38;5;12m [39m[38;5;12mImagery[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12maround[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mworld[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12menvironmental[39m[38;5;12m [39m[38;5;12mmodeling[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12msupport[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mNASA[39m[38;5;12m [39m[38;5;12mEOS[39m[38;5;12m [39m
|
||||
[38;5;12mprogram[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mJPG[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mHDF)[39m
|
||||
[38;5;12m72. [39m[38;5;14m[1mModis Airborne simulator, Gallery and data set[0m[38;5;12m (http://ltpwww.gsfc.nasa.gov/MODIS/MAS/) - High Altitude Imagery from around the world for environmental modeling in support of NASA EOS program (Formats: JPG and HDF)[39m
|
||||
[38;5;12m73. [39m[38;5;14m[1mNIST Fingerprint and handwriting[0m[38;5;12m (ftp://sequoyah.ncsl.nist.gov/pub/databases/data) - datasets - thousands of images (Formats: unknown)[39m
|
||||
[38;5;12m74. [39m[38;5;14m[1mNIST Fingerprint data[0m[38;5;12m (ftp://ftp.cs.columbia.edu/jpeg/other/uuencoded) - compressed multipart uuencoded tar file[39m
|
||||
[38;5;12m75. [39m[38;5;14m[1mNLM HyperDoc Visible Human Project[0m[38;5;12m (http://www.nlm.nih.gov/research/visible/visible_human.html) - Color, CAT and MRI image samples - over 30 images (Formats: jpeg)[39m
|
||||
[38;5;12m76. [39m[38;5;14m[1mNational Design Repository[0m[38;5;12m (http://www.designrepository.org) - Over 55,000 3D CAD and solid models of (mostly) mechanical/machined engineering designs. (Formats: gif,vrml,wrl,stp,sat) [39m
|
||||
[38;5;12m77. [39m[38;5;14m[1mGeometric & Intelligent Computing Laboratory[0m[38;5;12m (http://gicl.mcs.drexel.edu)[39m
|
||||
[38;5;12m79.[39m[38;5;12m [39m[38;5;14m[1mOSU[0m[38;5;14m[1m [0m[38;5;14m[1m(MSU)[0m[38;5;14m[1m [0m[38;5;14m[1m3D[0m[38;5;14m[1m [0m[38;5;14m[1mObject[0m[38;5;14m[1m [0m[38;5;14m[1mModel[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://eewww.eng.ohio-state.edu/~flynn/3DDB/Models/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mmodels[39m[38;5;12m [39m[38;5;12mcollected[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12myears[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12muse[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mrecognition[39m[38;5;12m [39m
|
||||
[38;5;12mresearch[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mhomebrew,[39m[38;5;12m [39m[38;5;12mvrml)[39m
|
||||
[38;5;12m79. [39m[38;5;14m[1mOSU (MSU) 3D Object Model Database[0m[38;5;12m (http://eewww.eng.ohio-state.edu/~flynn/3DDB/Models/) - several sets of 3D object models collected over several years to use in object recognition research (Formats: homebrew, vrml)[39m
|
||||
[38;5;12m80. [39m[38;5;14m[1mOSU (MSU/WSU) Range Image Database[0m[38;5;12m (http://eewww.eng.ohio-state.edu/~flynn/3DDB/RID/) - Hundreds of real and synthetic images (Formats: gif, homebrew)[39m
|
||||
[38;5;12m81.[39m[38;5;12m [39m[38;5;14m[1mOSU/SAMPL[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase:[0m[38;5;14m[1m [0m[38;5;14m[1mRange[0m[38;5;14m[1m [0m[38;5;14m[1mImages,[0m[38;5;14m[1m [0m[38;5;14m[1m3D[0m[38;5;14m[1m [0m[38;5;14m[1mModels,[0m[38;5;14m[1m [0m[38;5;14m[1mStills,[0m[38;5;14m[1m [0m[38;5;14m[1mMotion[0m[38;5;14m[1m [0m[38;5;14m[1mSequences[0m[38;5;12m [39m[38;5;12m(http://sampl.eng.ohio-state.edu/~sampl/database.htm)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mOver[39m[38;5;12m [39m[38;5;12m1000[39m[38;5;12m [39m[38;5;12mrange[39m[38;5;12m [39m[38;5;12mimages,[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mmodels,[39m[38;5;12m [39m[38;5;12mstill[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m
|
||||
[38;5;12mmotion[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mgif,[39m[38;5;12m [39m[38;5;12mppm,[39m[38;5;12m [39m[38;5;12mvrml,[39m[38;5;12m [39m[38;5;12mhomebrew)[39m
|
||||
[38;5;12m81.[39m[38;5;12m [39m[38;5;14m[1mOSU/SAMPL[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase:[0m[38;5;14m[1m [0m[38;5;14m[1mRange[0m[38;5;14m[1m [0m[38;5;14m[1mImages,[0m[38;5;14m[1m [0m[38;5;14m[1m3D[0m[38;5;14m[1m [0m[38;5;14m[1mModels,[0m[38;5;14m[1m [0m[38;5;14m[1mStills,[0m[38;5;14m[1m [0m[38;5;14m[1mMotion[0m[38;5;14m[1m [0m[38;5;14m[1mSequences[0m[38;5;12m [39m[38;5;12m(http://sampl.eng.ohio-state.edu/~sampl/database.htm)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mOver[39m[38;5;12m [39m[38;5;12m1000[39m[38;5;12m [39m[38;5;12mrange[39m[38;5;12m [39m[38;5;12mimages,[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mmodels,[39m[38;5;12m [39m[38;5;12mstill[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mmotion[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mgif,[39m[38;5;12m [39m[38;5;12mppm,[39m[38;5;12m [39m[38;5;12mvrml,[39m[38;5;12m [39m
|
||||
[38;5;12mhomebrew)[39m
|
||||
[38;5;12m82. [39m[38;5;14m[1mSignal Analysis and Machine Perception Laboratory[0m[38;5;12m (http://sampl.eng.ohio-state.edu)[39m
|
||||
[38;5;12m84.[39m[38;5;12m [39m[38;5;14m[1mOtago[0m[38;5;14m[1m [0m[38;5;14m[1mOptical[0m[38;5;14m[1m [0m[38;5;14m[1mFlow[0m[38;5;14m[1m [0m[38;5;14m[1mEvaluation[0m[38;5;14m[1m [0m[38;5;14m[1mSequences[0m[38;5;12m [39m[38;5;12m(http://www.cs.otago.ac.nz/research/vision/Research/OpticalFlow/opticalflow.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSynthetic[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mmachine-readable[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m
|
||||
[38;5;12moptical[39m[38;5;12m [39m[38;5;12mflow[39m[38;5;12m [39m[38;5;12mfields,[39m[38;5;12m [39m[38;5;12mplus[39m[38;5;12m [39m[38;5;12mtools[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mgenerate[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mnew[39m[38;5;12m [39m[38;5;12msequences.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm,tif,homebrew)[39m
|
||||
[38;5;12m84.[39m[38;5;12m [39m[38;5;14m[1mOtago[0m[38;5;14m[1m [0m[38;5;14m[1mOptical[0m[38;5;14m[1m [0m[38;5;14m[1mFlow[0m[38;5;14m[1m [0m[38;5;14m[1mEvaluation[0m[38;5;14m[1m [0m[38;5;14m[1mSequences[0m[38;5;12m [39m[38;5;12m(http://www.cs.otago.ac.nz/research/vision/Research/OpticalFlow/opticalflow.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSynthetic[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mmachine-readable[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12moptical[39m[38;5;12m [39m[38;5;12mflow[39m[38;5;12m [39m[38;5;12mfields,[39m[38;5;12m [39m[38;5;12mplus[39m[38;5;12m [39m[38;5;12mtools[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mgenerate[39m[38;5;12m [39m
|
||||
[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mnew[39m[38;5;12m [39m[38;5;12msequences.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm,tif,homebrew)[39m
|
||||
[38;5;12m85. [39m[38;5;14m[1mVision Research Group[0m[38;5;12m (http://www.cs.otago.ac.nz/research/vision/index.html)[39m
|
||||
[38;5;12m87.[39m[38;5;12m [39m[38;5;14m[1mftp://ftp.limsi.fr/pub/quenot/opflow/testdata/piv/[0m[38;5;12m [39m[38;5;12m(ftp://ftp.limsi.fr/pub/quenot/opflow/testdata/piv/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mReal[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mParticle[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mVelocimetry[39m[38;5;12m [39m
|
||||
[38;5;12mapplication.[39m[38;5;12m [39m[38;5;12mThese[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mmay[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12moptical[39m[38;5;12m [39m[38;5;12mflow[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mmatching[39m[38;5;12m [39m[38;5;12malgorithms.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mpgm[39m[38;5;12m [39m[38;5;12m(raw))[39m
|
||||
[38;5;12m87.[39m[38;5;12m [39m[38;5;14m[1mftp://ftp.limsi.fr/pub/quenot/opflow/testdata/piv/[0m[38;5;12m [39m[38;5;12m(ftp://ftp.limsi.fr/pub/quenot/opflow/testdata/piv/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mReal[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mParticle[39m[38;5;12m [39m[38;5;12mImage[39m[38;5;12m [39m[38;5;12mVelocimetry[39m[38;5;12m [39m[38;5;12mapplication.[39m[38;5;12m [39m[38;5;12mThese[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mmay[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthe[39m
|
||||
[38;5;12mtest[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12moptical[39m[38;5;12m [39m[38;5;12mflow[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mmatching[39m[38;5;12m [39m[38;5;12malgorithms.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mpgm[39m[38;5;12m [39m[38;5;12m(raw))[39m
|
||||
[38;5;12m88. [39m[38;5;14m[1mLIMSI-CNRS/CHM/IMM/vision[0m[38;5;12m (http://www.limsi.fr/Recherche/IMM/PageIMM.html)[39m
|
||||
[38;5;12m89. [39m[38;5;14m[1mLIMSI-CNRS[0m[38;5;12m (http://www.limsi.fr/)[39m
|
||||
[38;5;12m90.[39m[38;5;12m [39m[38;5;14m[1mPhotometric[0m[38;5;14m[1m [0m[38;5;14m[1m3D[0m[38;5;14m[1m [0m[38;5;14m[1mSurface[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.taurusstudio.net/research/pmtexdb/index.htm)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mfirst[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mtexture[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mwhich[39m[38;5;12m [39m[38;5;12mprovides[39m[38;5;12m [39m[38;5;12mboth[39m[38;5;12m [39m[38;5;12mfull[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12msurface[39m[38;5;12m [39m[38;5;12mrotations[39m[38;5;12m [39m
|
||||
[38;5;12mand[39m[38;5;12m [39m[38;5;12mregistered[39m[38;5;12m [39m[38;5;12mphotometric[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12m(30[39m[38;5;12m [39m[38;5;12mtextures,[39m[38;5;12m [39m[38;5;12m1680[39m[38;5;12m [39m[38;5;12mimages).[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF)[39m
|
||||
[38;5;12m91.[39m[38;5;12m [39m[38;5;14m[1mSEQUENCES[0m[38;5;14m[1m [0m[38;5;14m[1mFOR[0m[38;5;14m[1m [0m[38;5;14m[1mOPTICAL[0m[38;5;14m[1m [0m[38;5;14m[1mFLOW[0m[38;5;14m[1m [0m[38;5;14m[1mANALYSIS[0m[38;5;14m[1m [0m[38;5;14m[1m(SOFA)[0m[38;5;12m [39m[38;5;12m(http://www.cee.hw.ac.uk/~mtc/sofa)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m9[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mdesigned[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12mmotion[39m[38;5;12m [39m[38;5;12manalysis[39m[38;5;12m [39m[38;5;12mapplications,[39m[38;5;12m [39m[38;5;12mincluding[39m[38;5;12m [39m[38;5;12mfull[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m
|
||||
[38;5;12mmotion[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcamera[39m[38;5;12m [39m[38;5;12mparameters.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mgif)[39m
|
||||
[38;5;12m90.[39m[38;5;12m [39m[38;5;14m[1mPhotometric[0m[38;5;14m[1m [0m[38;5;14m[1m3D[0m[38;5;14m[1m [0m[38;5;14m[1mSurface[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.taurusstudio.net/research/pmtexdb/index.htm)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mfirst[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mtexture[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mwhich[39m[38;5;12m [39m[38;5;12mprovides[39m[38;5;12m [39m[38;5;12mboth[39m[38;5;12m [39m[38;5;12mfull[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12msurface[39m[38;5;12m [39m[38;5;12mrotations[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mregistered[39m[38;5;12m [39m[38;5;12mphotometric[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12m(30[39m[38;5;12m [39m
|
||||
[38;5;12mtextures,[39m[38;5;12m [39m[38;5;12m1680[39m[38;5;12m [39m[38;5;12mimages).[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF)[39m
|
||||
[38;5;12m91. [39m[38;5;14m[1mSEQUENCES FOR OPTICAL FLOW ANALYSIS (SOFA)[0m[38;5;12m (http://www.cee.hw.ac.uk/~mtc/sofa) - 9 synthetic sequences designed for testing motion analysis applications, including full ground truth of motion and camera parameters. (Formats: gif)[39m
|
||||
[38;5;12m92. [39m[38;5;14m[1mComputer Vision Group[0m[38;5;12m (http://www.cee.hw.ac.uk/~mtc/research.html)[39m
|
||||
[38;5;12m94. [39m[38;5;14m[1mSequences for Flow Based Reconstruction[0m[38;5;12m (http://www.nada.kth.se/~zucch/CAMERA/PUB/seq.html) - synthetic sequence for testing structure from motion algorithms (Formats: pgm)[39m
|
||||
[38;5;12m95.[39m[38;5;12m [39m[38;5;14m[1mStereo[0m[38;5;14m[1m [0m[38;5;14m[1mImages[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mGround[0m[38;5;14m[1m [0m[38;5;14m[1mTruth[0m[38;5;14m[1m [0m[38;5;14m[1mDisparity[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mOcclusion[0m[38;5;12m [39m[38;5;12m(http://www-dbv.cs.uni-bonn.de/stereo_data/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12msmall[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mhallway[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mvarying[39m[38;5;12m [39m[38;5;12mamounts[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mnoise[39m[38;5;12m [39m[38;5;12madded.[39m[38;5;12m [39m
|
||||
[38;5;12mUse[39m[38;5;12m [39m[38;5;12mthese[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mbenchmark[39m[38;5;12m [39m[38;5;12myour[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m[38;5;12malgorithm.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mraw,[39m[38;5;12m [39m[38;5;12mviff[39m[38;5;12m [39m[38;5;12m(khoros),[39m[38;5;12m [39m[38;5;12mor[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m96.[39m[38;5;12m [39m[38;5;14m[1mStuttgart[0m[38;5;14m[1m [0m[38;5;14m[1mRange[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://range.informatik.uni-stuttgart.de)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mrange[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mtaken[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12mhigh-resolution[39m[38;5;12m [39m[38;5;12mpolygonal[39m[38;5;12m [39m[38;5;12mmodels[39m[38;5;12m [39m[38;5;12mavailable[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mweb[39m[38;5;12m [39m
|
||||
[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mhomebrew)[39m
|
||||
[38;5;12m95.[39m[38;5;12m [39m[38;5;14m[1mStereo[0m[38;5;14m[1m [0m[38;5;14m[1mImages[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1mGround[0m[38;5;14m[1m [0m[38;5;14m[1mTruth[0m[38;5;14m[1m [0m[38;5;14m[1mDisparity[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mOcclusion[0m[38;5;12m [39m[38;5;12m(http://www-dbv.cs.uni-bonn.de/stereo_data/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12msmall[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12msynthetic[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mhallway[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mvarying[39m[38;5;12m [39m[38;5;12mamounts[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mnoise[39m[38;5;12m [39m[38;5;12madded.[39m[38;5;12m [39m[38;5;12mUse[39m[38;5;12m [39m[38;5;12mthese[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mbenchmark[39m[38;5;12m [39m[38;5;12myour[39m[38;5;12m [39m[38;5;12mstereo[39m[38;5;12m [39m
|
||||
[38;5;12malgorithm.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mraw,[39m[38;5;12m [39m[38;5;12mviff[39m[38;5;12m [39m[38;5;12m(khoros),[39m[38;5;12m [39m[38;5;12mor[39m[38;5;12m [39m[38;5;12mtiff)[39m
|
||||
[38;5;12m96. [39m[38;5;14m[1mStuttgart Range Image Database[0m[38;5;12m (http://range.informatik.uni-stuttgart.de) - A collection of synthetic range images taken from high-resolution polygonal models available on the web (Formats: homebrew)[39m
|
||||
[38;5;12m97. [39m[38;5;14m[1mDepartment Image Understanding[0m[38;5;12m (http://www.informatik.uni-stuttgart.de/ipvr/bv/bv_home_engl.html)[39m
|
||||
[38;5;12m99.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mAR[0m[38;5;14m[1m [0m[38;5;14m[1mFace[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www2.ece.ohio-state.edu/~aleix/ARdatabase.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mContains[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m4,000[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mcorresponding[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12m126[39m[38;5;12m [39m[38;5;12mpeople's[39m[38;5;12m [39m[38;5;12mfaces[39m[38;5;12m [39m[38;5;12m(70[39m[38;5;12m [39m[38;5;12mmen[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12m56[39m[38;5;12m [39m[38;5;12mwomen).[39m[38;5;12m [39m[38;5;12mFrontal[39m[38;5;12m [39m[38;5;12mviews[39m[38;5;12m [39m
|
||||
[38;5;12mwith[39m[38;5;12m [39m[38;5;12mvariations[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mfacial[39m[38;5;12m [39m[38;5;12mexpressions,[39m[38;5;12m [39m[38;5;12millumination,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mocclusions.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mRAW[39m[38;5;12m [39m[38;5;12m(RGB[39m[38;5;12m [39m[38;5;12m24-bit))[39m
|
||||
[38;5;12m99.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mAR[0m[38;5;14m[1m [0m[38;5;14m[1mFace[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www2.ece.ohio-state.edu/~aleix/ARdatabase.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mContains[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m4,000[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mcorresponding[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12m126[39m[38;5;12m [39m[38;5;12mpeople's[39m[38;5;12m [39m[38;5;12mfaces[39m[38;5;12m [39m[38;5;12m(70[39m[38;5;12m [39m[38;5;12mmen[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12m56[39m[38;5;12m [39m[38;5;12mwomen).[39m[38;5;12m [39m[38;5;12mFrontal[39m[38;5;12m [39m[38;5;12mviews[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mvariations[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mfacial[39m[38;5;12m [39m[38;5;12mexpressions,[39m[38;5;12m [39m
|
||||
[38;5;12millumination,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mocclusions.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mRAW[39m[38;5;12m [39m[38;5;12m(RGB[39m[38;5;12m [39m[38;5;12m24-bit))[39m
|
||||
[38;5;12m100. [39m[38;5;14m[1mPurdue Robot Vision Lab[0m[38;5;12m (http://rvl.www.ecn.purdue.edu/RVL/)[39m
|
||||
[38;5;12m101.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mMIT-CSAIL[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mObjects[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mScenes[0m[38;5;12m [39m[38;5;12m(http://web.mit.edu/torralba/www/database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDatabase[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12mmulticlass[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mdetection[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mscene[39m[38;5;12m [39m[38;5;12mrecognition[39m[38;5;12m [39m[38;5;12malgorithms.[39m[38;5;12m [39m[38;5;12mOver[39m[38;5;12m [39m
|
||||
[38;5;12m72,000[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m2873[39m[38;5;12m [39m[38;5;12mannotated[39m[38;5;12m [39m[38;5;12mframes.[39m[38;5;12m [39m[38;5;12mMore[39m[38;5;12m [39m[38;5;12mthan[39m[38;5;12m [39m[38;5;12m50[39m[38;5;12m [39m[38;5;12mannotated[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mclasses.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mjpg)[39m
|
||||
[38;5;12m102.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mRVL[0m[38;5;14m[1m [0m[38;5;14m[1mSPEC-DB[0m[38;5;14m[1m [0m[38;5;14m[1m(SPECularity[0m[38;5;14m[1m [0m[38;5;14m[1mDataBase)[0m[38;5;12m [39m[38;5;12m(http://rvl1.ecn.purdue.edu/RVL/specularity_database/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m300[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m100[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mtaken[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m
|
||||
[38;5;12milluminaiton[39m[38;5;12m [39m[38;5;12mconditions[39m[38;5;12m [39m[38;5;12m(Diffuse/Ambient/Directed).[39m[38;5;12m [39m[38;5;12m--[39m[38;5;12m [39m[38;5;12mUse[39m[38;5;12m [39m[38;5;12mthese[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mdetecting[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcompensating[39m[38;5;12m [39m[38;5;12mspecular[39m[38;5;12m [39m[38;5;12mhighlights[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF[39m[38;5;12m [39m[38;5;12m)[39m
|
||||
[38;5;12m101.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mMIT-CSAIL[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mObjects[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mScenes[0m[38;5;12m [39m[38;5;12m(http://web.mit.edu/torralba/www/database.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDatabase[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12mmulticlass[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mdetection[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mscene[39m[38;5;12m [39m[38;5;12mrecognition[39m[38;5;12m [39m[38;5;12malgorithms.[39m[38;5;12m [39m[38;5;12mOver[39m[38;5;12m [39m[38;5;12m72,000[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m2873[39m[38;5;12m [39m[38;5;12mannotated[39m[38;5;12m [39m[38;5;12mframes.[39m[38;5;12m [39m[38;5;12mMore[39m[38;5;12m [39m
|
||||
[38;5;12mthan[39m[38;5;12m [39m[38;5;12m50[39m[38;5;12m [39m[38;5;12mannotated[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mclasses.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mjpg)[39m
|
||||
[38;5;12m102.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mRVL[0m[38;5;14m[1m [0m[38;5;14m[1mSPEC-DB[0m[38;5;14m[1m [0m[38;5;14m[1m(SPECularity[0m[38;5;14m[1m [0m[38;5;14m[1mDataBase)[0m[38;5;12m [39m[38;5;12m(http://rvl1.ecn.purdue.edu/RVL/specularity_database/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m300[39m[38;5;12m [39m[38;5;12mreal[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m100[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mtaken[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12milluminaiton[39m[38;5;12m [39m[38;5;12mconditions[39m[38;5;12m [39m[38;5;12m(Diffuse/Ambient/Directed).[39m[38;5;12m [39m[38;5;12m--[39m[38;5;12m [39m
|
||||
[38;5;12mUse[39m[38;5;12m [39m[38;5;12mthese[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mdetecting[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcompensating[39m[38;5;12m [39m[38;5;12mspecular[39m[38;5;12m [39m[38;5;12mhighlights[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mTIFF[39m[38;5;12m [39m[38;5;12m)[39m
|
||||
[38;5;12m103. [39m[38;5;14m[1mRobot Vision Laboratory[0m[38;5;12m (http://rvl1.ecn.purdue.edu/RVL/)[39m
|
||||
[38;5;12m105.[39m[38;5;12m [39m[38;5;14m[1mThe[0m[38;5;14m[1m [0m[38;5;14m[1mXm2vts[0m[38;5;14m[1m [0m[38;5;14m[1mdatabase[0m[38;5;12m [39m[38;5;12m(http://xm2vtsdb.ee.surrey.ac.uk)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mXM2VTSDB[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12mfour[39m[38;5;12m [39m[38;5;12mdigital[39m[38;5;12m [39m[38;5;12mrecordings[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m295[39m[38;5;12m [39m[38;5;12mpeople[39m[38;5;12m [39m[38;5;12mtaken[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mperiod[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mfour[39m[38;5;12m [39m[38;5;12mmonths.[39m[38;5;12m [39m[38;5;12mThis[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12mboth[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m
|
||||
[38;5;12mand[39m[38;5;12m [39m[38;5;12mvideo[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mfaces.[39m
|
||||
[38;5;12m105. [39m[38;5;14m[1mThe Xm2vts database[0m[38;5;12m (http://xm2vtsdb.ee.surrey.ac.uk) - The XM2VTSDB contains four digital recordings of 295 people taken over a period of four months. This database contains both image and video data of faces.[39m
|
||||
[38;5;12m106. [39m[38;5;14m[1mCentre for Vision, Speech and Signal Processing[0m[38;5;12m (http://www.ee.surrey.ac.uk/Research/CVSSP)[39m
|
||||
[38;5;12m107.[39m[38;5;12m [39m[38;5;14m[1mTraffic[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mSequences[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1m'Marbled[0m[38;5;14m[1m [0m[38;5;14m[1mBlock'[0m[38;5;14m[1m [0m[38;5;14m[1mSequence[0m[38;5;12m [39m[38;5;12m(http://i21www.ira.uka.de/image_sequences)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mthousands[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mframes[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mdigitized[39m[38;5;12m [39m[38;5;12mtraffic[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12msequences[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12m'Marbled[39m[38;5;12m [39m[38;5;12mBlock'[39m[38;5;12m [39m
|
||||
[38;5;12msequence[39m[38;5;12m [39m[38;5;12m(grayscale[39m[38;5;12m [39m[38;5;12mimages)[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mGIF)[39m
|
||||
[38;5;12m107. [39m[38;5;14m[1mTraffic Image Sequences and 'Marbled Block' Sequence[0m[38;5;12m (http://i21www.ira.uka.de/image_sequences) - thousands of frames of digitized traffic image sequences as well as the 'Marbled Block' sequence (grayscale images) (Formats: GIF)[39m
|
||||
[38;5;12m108. [39m[38;5;14m[1mIAKS/KOGS[0m[38;5;12m (http://i21www.ira.uka.de)[39m
|
||||
[38;5;12m110. [39m[38;5;14m[1mU Bern Face images[0m[38;5;12m (ftp://ftp.iam.unibe.ch/pub/Images/FaceImages) - hundreds of images (Formats: Sun rasterfile)[39m
|
||||
[38;5;12m111. [39m[38;5;14m[1mU Michigan textures[0m[38;5;12m (ftp://freebie.engin.umich.edu/pub/misc/textures) (Formats: compressed raw)[39m
|
||||
[38;5;12m112. [39m[38;5;14m[1mU Oulu wood and knots database[0m[38;5;12m (http://www.ee.oulu.fi/~olli/Projects/Lumber.Grading.html) - Includes classifications - 1000+ color images (Formats: ppm)[39m
|
||||
[38;5;12m113.[39m[38;5;12m [39m[38;5;14m[1mUCID[0m[38;5;14m[1m [0m[38;5;14m[1m-[0m[38;5;14m[1m [0m[38;5;14m[1man[0m[38;5;14m[1m [0m[38;5;14m[1mUncompressed[0m[38;5;14m[1m [0m[38;5;14m[1mColour[0m[38;5;14m[1m [0m[38;5;14m[1mImage[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://vision.doc.ntu.ac.uk/datasets/UCID/ucid.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mbenchmark[39m[38;5;12m [39m[38;5;12mdatabase[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12mretrieval[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mpredefined[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m
|
||||
[38;5;12mtiff)[39m
|
||||
[38;5;12m113. [39m[38;5;14m[1mUCID - an Uncompressed Colour Image Database[0m[38;5;12m (http://vision.doc.ntu.ac.uk/datasets/UCID/ucid.html) - a benchmark database for image retrieval with predefined ground truth. (Formats: tiff)[39m
|
||||
[38;5;12m115. [39m[38;5;14m[1mUMass Vision Image Archive[0m[38;5;12m (http://vis-www.cs.umass.edu/~vislib/) - Large image database with aerial, space, stereo, medical images and more. (Formats: homebrew)[39m
|
||||
[38;5;12m116. [39m[38;5;14m[1mUNC's 3D image database[0m[38;5;12m (ftp://sunsite.unc.edu/pub/academic/computer-science/virtual-reality/3d) - many images (Formats: GIF)[39m
|
||||
[38;5;12m117. [39m[38;5;14m[1mUSF Range Image Data with Segmentation Ground Truth[0m[38;5;12m (http://marathon.csee.usf.edu/range/seg-comp/SegComp.html) - 80 image sets (Formats: Sun rasterimage)[39m
|
||||
[38;5;12m118.[39m[38;5;12m [39m[38;5;14m[1mUniversity[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mOulu[0m[38;5;14m[1m [0m[38;5;14m[1mPhysics-based[0m[38;5;14m[1m [0m[38;5;14m[1mFace[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.ee.oulu.fi/research/imag/color/pbfd.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mfaces[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12milluminants[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcamera[39m[38;5;12m [39m[38;5;12mcalibration[39m[38;5;12m [39m
|
||||
[38;5;12mconditions[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mskin[39m[38;5;12m [39m[38;5;12mspectral[39m[38;5;12m [39m[38;5;12mreflectance[39m[38;5;12m [39m[38;5;12mmeasurements[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mperson.[39m
|
||||
[38;5;12m118.[39m[38;5;12m [39m[38;5;14m[1mUniversity[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mOulu[0m[38;5;14m[1m [0m[38;5;14m[1mPhysics-based[0m[38;5;14m[1m [0m[38;5;14m[1mFace[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.ee.oulu.fi/research/imag/color/pbfd.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12mcolor[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mfaces[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12milluminants[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcamera[39m[38;5;12m [39m[38;5;12mcalibration[39m[38;5;12m [39m[38;5;12mconditions[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mwell[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mskin[39m[38;5;12m [39m[38;5;12mspectral[39m[38;5;12m [39m
|
||||
[38;5;12mreflectance[39m[38;5;12m [39m[38;5;12mmeasurements[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mperson.[39m
|
||||
[38;5;12m119. [39m[38;5;14m[1mMachine Vision and Media Processing Unit[0m[38;5;12m (http://www.ee.oulu.fi/mvmp/)[39m
|
||||
[38;5;12m121.[39m[38;5;12m [39m[38;5;14m[1mUniversity[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mOulu[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.outex.oulu.fi)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDatabase[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m320[39m[38;5;12m [39m[38;5;12msurface[39m[38;5;12m [39m[38;5;12mtextures,[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mcaptured[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12milluminants,[39m[38;5;12m [39m[38;5;12msix[39m[38;5;12m [39m[38;5;12mspatial[39m[38;5;12m [39m[38;5;12mresolutions[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mnine[39m[38;5;12m [39m[38;5;12mrotation[39m[38;5;12m [39m
|
||||
[38;5;12mangles.[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12msuites[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12malso[39m[38;5;12m [39m[38;5;12mprovided[39m[38;5;12m [39m[38;5;12mso[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mtexture[39m[38;5;12m [39m[38;5;12msegmentation,[39m[38;5;12m [39m[38;5;12mclassification,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mretrieval[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mcan[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mtested[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mstandard[39m[38;5;12m [39m[38;5;12mmanner.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mbmp,[39m[38;5;12m [39m[38;5;12mras,[39m[38;5;12m [39m[38;5;12mxv)[39m
|
||||
[38;5;12m121.[39m[38;5;12m [39m[38;5;14m[1mUniversity[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mOulu[0m[38;5;14m[1m [0m[38;5;14m[1mTexture[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.outex.oulu.fi)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDatabase[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m320[39m[38;5;12m [39m[38;5;12msurface[39m[38;5;12m [39m[38;5;12mtextures,[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mcaptured[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12milluminants,[39m[38;5;12m [39m[38;5;12msix[39m[38;5;12m [39m[38;5;12mspatial[39m[38;5;12m [39m[38;5;12mresolutions[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mnine[39m[38;5;12m [39m[38;5;12mrotation[39m[38;5;12m [39m[38;5;12mangles.[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12msuites[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12malso[39m[38;5;12m [39m[38;5;12mprovided[39m[38;5;12m [39m[38;5;12mso[39m[38;5;12m [39m
|
||||
[38;5;12mthat[39m[38;5;12m [39m[38;5;12mtexture[39m[38;5;12m [39m[38;5;12msegmentation,[39m[38;5;12m [39m[38;5;12mclassification,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mretrieval[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mcan[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mtested[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mstandard[39m[38;5;12m [39m[38;5;12mmanner.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mbmp,[39m[38;5;12m [39m[38;5;12mras,[39m[38;5;12m [39m[38;5;12mxv)[39m
|
||||
[38;5;12m122. [39m[38;5;14m[1mMachine Vision Group[0m[38;5;12m (http://www.ee.oulu.fi/mvg)[39m
|
||||
[38;5;12m124. [39m[38;5;14m[1mUsenix face database[0m[38;5;12m (ftp://ftp.uu.net/published/usenix/faces) - Thousands of face images from many different sites (circa 994)[39m
|
||||
[38;5;12m125.[39m[38;5;12m [39m[38;5;14m[1mView[0m[38;5;14m[1m [0m[38;5;14m[1mSphere[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www-prima.inrialpes.fr/Prima/hall/view_sphere.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mImages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m8[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mseen[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12mmany[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12mpoints.[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12msphere[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12msampled[39m[38;5;12m [39m[38;5;12musing[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mgeodesic[39m[38;5;12m [39m
|
||||
[38;5;12mwith[39m[38;5;12m [39m[38;5;12m172[39m[38;5;12m [39m[38;5;12mimages/sphere.[39m[38;5;12m [39m[38;5;12mTwo[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtraining[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mavailable.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm)[39m
|
||||
[38;5;12m125.[39m[38;5;12m [39m[38;5;14m[1mView[0m[38;5;14m[1m [0m[38;5;14m[1mSphere[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www-prima.inrialpes.fr/Prima/hall/view_sphere.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mImages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m8[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12mseen[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12mmany[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12mpoints.[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12mview[39m[38;5;12m [39m[38;5;12msphere[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12msampled[39m[38;5;12m [39m[38;5;12musing[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mgeodesic[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m172[39m[38;5;12m [39m[38;5;12mimages/sphere.[39m[38;5;12m [39m[38;5;12mTwo[39m[38;5;12m [39m[38;5;12msets[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mtraining[39m[38;5;12m [39m
|
||||
[38;5;12mand[39m[38;5;12m [39m[38;5;12mtesting[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mavailable.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mppm)[39m
|
||||
[38;5;12m126. [39m[38;5;14m[1mPRIMA, GRAVIR[0m[38;5;12m (http://www-prima.inrialpes.fr/Prima/)[39m
|
||||
[38;5;12m127. [39m[38;5;14m[1mVision-list Imagery Archive[0m[38;5;12m (ftp://ftp.vislist.com/IMAGERY/) - Many images, many formats[39m
|
||||
[38;5;12m128.[39m[38;5;12m [39m[38;5;14m[1mWiry[0m[38;5;14m[1m [0m[38;5;14m[1mObject[0m[38;5;14m[1m [0m[38;5;14m[1mRecognition[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://www.cs.cmu.edu/~owenc/word.htm)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mThousands[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mcart,[39m[38;5;12m [39m[38;5;12mladder,[39m[38;5;12m [39m[38;5;12mstool,[39m[38;5;12m [39m[38;5;12mbicycle,[39m[38;5;12m [39m[38;5;12mchairs,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcluttered[39m[38;5;12m [39m[38;5;12mscenes[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mground[39m[38;5;12m [39m[38;5;12mtruth[39m[38;5;12m [39m[38;5;12mlabelings[39m
|
||||
[38;5;12mof[39m[38;5;12m [39m[38;5;12medges[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mregions.[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mjpg)[39m
|
||||
[38;5;12m128. [39m[38;5;14m[1mWiry Object Recognition Database[0m[38;5;12m (http://www.cs.cmu.edu/~owenc/word.htm) - Thousands of images of a cart, ladder, stool, bicycle, chairs, and cluttered scenes with ground truth labelings of edges and regions. (Formats: jpg)[39m
|
||||
[38;5;12m129. [39m[38;5;14m[1m3D Vision Group[0m[38;5;12m (http://www.cs.cmu.edu/0.000000E+003dvision/)[39m
|
||||
[38;5;12m131. [39m[38;5;14m[1mYale Face Database[0m[38;5;12m (http://cvc.yale.edu/projects/yalefaces/yalefaces.html) - 165 images (15 individuals) with different lighting, expression, and occlusion configurations.[39m
|
||||
[38;5;12m132.[39m[38;5;12m [39m[38;5;14m[1mYale[0m[38;5;14m[1m [0m[38;5;14m[1mFace[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;14m[1m [0m[38;5;14m[1mB[0m[38;5;12m [39m[38;5;12m(http://cvc.yale.edu/projects/yalefacesB/yalefacesB.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12m5760[39m[38;5;12m [39m[38;5;12msingle[39m[38;5;12m [39m[38;5;12mlight[39m[38;5;12m [39m[38;5;12msource[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m10[39m[38;5;12m [39m[38;5;12msubjects[39m[38;5;12m [39m[38;5;12meach[39m[38;5;12m [39m[38;5;12mseen[39m[38;5;12m [39m[38;5;12munder[39m[38;5;12m [39m[38;5;12m576[39m[38;5;12m [39m[38;5;12mviewing[39m[38;5;12m [39m[38;5;12mconditions[39m[38;5;12m [39m[38;5;12m(9[39m[38;5;12m [39m[38;5;12mposes[39m[38;5;12m [39m[38;5;12mx[39m[38;5;12m [39m[38;5;12m64[39m[38;5;12m [39m
|
||||
[38;5;12millumination[39m[38;5;12m [39m[38;5;12mconditions).[39m[38;5;12m [39m[38;5;12m(Formats:[39m[38;5;12m [39m[38;5;12mPGM)[39m
|
||||
[38;5;12m132. [39m[38;5;14m[1mYale Face Database B[0m[38;5;12m (http://cvc.yale.edu/projects/yalefacesB/yalefacesB.html) - 5760 single light source images of 10 subjects each seen under 576 viewing conditions (9 poses x 64 illumination conditions). (Formats: PGM)[39m
|
||||
[38;5;12m133. [39m[38;5;14m[1mCenter for Computational Vision and Control[0m[38;5;12m (http://cvc.yale.edu/)[39m
|
||||
[38;5;12m134.[39m[38;5;12m [39m[38;5;14m[1mDeepMind[0m[38;5;14m[1m [0m[38;5;14m[1mQA[0m[38;5;14m[1m [0m[38;5;14m[1mCorpus[0m[38;5;12m [39m[38;5;12m(https://github.com/deepmind/rc-data)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mTextual[39m[38;5;12m [39m[38;5;12mQA[39m[38;5;12m [39m[38;5;12mcorpus[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12mCNN[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mDailyMail.[39m[38;5;12m [39m[38;5;12mMore[39m[38;5;12m [39m[38;5;12mthan[39m[38;5;12m [39m[38;5;12m300K[39m[38;5;12m [39m[38;5;12mdocuments[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mtotal.[39m[38;5;12m [39m[38;5;14m[1mPaper[0m[38;5;12m [39m[38;5;12m(http://arxiv.org/abs/1506.03340)[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m
|
||||
[38;5;12mreference.[39m
|
||||
[38;5;12m135.[39m[38;5;12m [39m[38;5;14m[1mYouTube-8M[0m[38;5;14m[1m [0m[38;5;14m[1mDataset[0m[38;5;12m [39m[38;5;12m(https://research.google.com/youtube8m/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mYouTube-8M[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mlarge-scale[39m[38;5;12m [39m[38;5;12mlabeled[39m[38;5;12m [39m[38;5;12mvideo[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mconsists[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m8[39m[38;5;12m [39m[38;5;12mmillion[39m[38;5;12m [39m[38;5;12mYouTube[39m[38;5;12m [39m[38;5;12mvideo[39m[38;5;12m [39m[38;5;12mIDs[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12massociated[39m[38;5;12m [39m[38;5;12mlabels[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m
|
||||
[38;5;12mdiverse[39m[38;5;12m [39m[38;5;12mvocabulary[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m4800[39m[38;5;12m [39m[38;5;12mvisual[39m[38;5;12m [39m[38;5;12mentities.[39m
|
||||
[38;5;12m134. [39m[38;5;14m[1mDeepMind QA Corpus[0m[38;5;12m (https://github.com/deepmind/rc-data) - Textual QA corpus from CNN and DailyMail. More than 300K documents in total. [39m[38;5;14m[1mPaper[0m[38;5;12m (http://arxiv.org/abs/1506.03340) for reference.[39m
|
||||
[38;5;12m135. [39m[38;5;14m[1mYouTube-8M Dataset[0m[38;5;12m (https://research.google.com/youtube8m/) - YouTube-8M is a large-scale labeled video dataset that consists of 8 million YouTube video IDs and associated labels from a diverse vocabulary of 4800 visual entities.[39m
|
||||
[38;5;12m136. [39m[38;5;14m[1mOpen Images dataset[0m[38;5;12m (https://github.com/openimages/dataset) - Open Images is a dataset of ~9 million URLs to images that have been annotated with labels spanning over 6000 categories.[39m
|
||||
[38;5;12m137.[39m[38;5;12m [39m[38;5;14m[1mVisual[0m[38;5;14m[1m [0m[38;5;14m[1mObject[0m[38;5;14m[1m [0m[38;5;14m[1mClasses[0m[38;5;14m[1m [0m[38;5;14m[1mChallenge[0m[38;5;14m[1m [0m[38;5;14m[1m2012[0m[38;5;14m[1m [0m[38;5;14m[1m(VOC2012)[0m[38;5;12m [39m[38;5;12m(http://host.robots.ox.ac.uk/pascal/VOC/voc2012/index.html#devkit)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mVOC2012[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mcontaining[39m[38;5;12m [39m[38;5;12m12k[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m20[39m[38;5;12m [39m[38;5;12mannotated[39m[38;5;12m [39m[38;5;12mclasses[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m
|
||||
[38;5;12mobject[39m[38;5;12m [39m[38;5;12mdetection[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12msegmentation.[39m
|
||||
[38;5;12m138.[39m[38;5;12m [39m[38;5;14m[1mFashion-MNIST[0m[38;5;12m [39m[38;5;12m(https://github.com/zalandoresearch/fashion-mnist)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mMNIST[39m[38;5;12m [39m[38;5;12mlike[39m[38;5;12m [39m[38;5;12mfashion[39m[38;5;12m [39m[38;5;12mproduct[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mconsisting[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtraining[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m60,000[39m[38;5;12m [39m[38;5;12mexamples[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m10,000[39m[38;5;12m [39m[38;5;12mexamples.[39m[38;5;12m [39m
|
||||
[38;5;12mEach[39m[38;5;12m [39m[38;5;12mexample[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12m28x28[39m[38;5;12m [39m[38;5;12mgrayscale[39m[38;5;12m [39m[38;5;12mimage,[39m[38;5;12m [39m[38;5;12massociated[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mlabel[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12m10[39m[38;5;12m [39m[38;5;12mclasses.[39m
|
||||
[38;5;12m139.[39m[38;5;12m [39m[38;5;14m[1mLarge-scale[0m[38;5;14m[1m [0m[38;5;14m[1mFashion[0m[38;5;14m[1m [0m[38;5;14m[1m(DeepFashion)[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://mmlab.ie.cuhk.edu.hk/projects/DeepFashion.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mContains[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m800,000[39m[38;5;12m [39m[38;5;12mdiverse[39m[38;5;12m [39m[38;5;12mfashion[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12mEach[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mthis[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mlabeled[39m[38;5;12m [39m
|
||||
[38;5;12mwith[39m[38;5;12m [39m[38;5;12m50[39m[38;5;12m [39m[38;5;12mcategories,[39m[38;5;12m [39m[38;5;12m1,000[39m[38;5;12m [39m[38;5;12mdescriptive[39m[38;5;12m [39m[38;5;12mattributes,[39m[38;5;12m [39m[38;5;12mbounding[39m[38;5;12m [39m[38;5;12mbox[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mclothing[39m[38;5;12m [39m[38;5;12mlandmarks[39m
|
||||
[38;5;12m137. [39m[38;5;14m[1mVisual Object Classes Challenge 2012 (VOC2012)[0m[38;5;12m (http://host.robots.ox.ac.uk/pascal/VOC/voc2012/index.html#devkit) - VOC2012 dataset containing 12k images with 20 annotated classes for object detection and segmentation.[39m
|
||||
[38;5;12m138.[39m[38;5;12m [39m[38;5;14m[1mFashion-MNIST[0m[38;5;12m [39m[38;5;12m(https://github.com/zalandoresearch/fashion-mnist)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mMNIST[39m[38;5;12m [39m[38;5;12mlike[39m[38;5;12m [39m[38;5;12mfashion[39m[38;5;12m [39m[38;5;12mproduct[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mconsisting[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtraining[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m60,000[39m[38;5;12m [39m[38;5;12mexamples[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtest[39m[38;5;12m [39m[38;5;12mset[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12m10,000[39m[38;5;12m [39m[38;5;12mexamples.[39m[38;5;12m [39m[38;5;12mEach[39m[38;5;12m [39m[38;5;12mexample[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12m28x28[39m[38;5;12m [39m[38;5;12mgrayscale[39m[38;5;12m [39m[38;5;12mimage,[39m[38;5;12m [39m
|
||||
[38;5;12massociated[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mlabel[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12m10[39m[38;5;12m [39m[38;5;12mclasses.[39m
|
||||
[38;5;12m139.[39m[38;5;12m [39m[38;5;14m[1mLarge-scale[0m[38;5;14m[1m [0m[38;5;14m[1mFashion[0m[38;5;14m[1m [0m[38;5;14m[1m(DeepFashion)[0m[38;5;14m[1m [0m[38;5;14m[1mDatabase[0m[38;5;12m [39m[38;5;12m(http://mmlab.ie.cuhk.edu.hk/projects/DeepFashion.html)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mContains[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m800,000[39m[38;5;12m [39m[38;5;12mdiverse[39m[38;5;12m [39m[38;5;12mfashion[39m[38;5;12m [39m[38;5;12mimages.[39m[38;5;12m [39m[38;5;12mEach[39m[38;5;12m [39m[38;5;12mimage[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mthis[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12mlabeled[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12m50[39m[38;5;12m [39m[38;5;12mcategories,[39m[38;5;12m [39m[38;5;12m1,000[39m[38;5;12m [39m[38;5;12mdescriptive[39m[38;5;12m [39m
|
||||
[38;5;12mattributes,[39m[38;5;12m [39m[38;5;12mbounding[39m[38;5;12m [39m[38;5;12mbox[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mclothing[39m[38;5;12m [39m[38;5;12mlandmarks[39m
|
||||
[38;5;12m140. [39m[38;5;14m[1mFakeNewsCorpus[0m[38;5;12m (https://github.com/several27/FakeNewsCorpus) - Contains about 10 million news articles classified using [39m[38;5;14m[1mopensources.co[0m[38;5;12m (http://opensources.co) types[39m
|
||||
[38;5;12m141. [39m[38;5;14m[1mLLVIP[0m[38;5;12m (https://github.com/bupt-ai-cz/LLVIP) - 15488 visible-infrared paired images (30976 images) for low-light vision research, [39m[38;5;14m[1mProject_Page[0m[38;5;12m (https://bupt-ai-cz.github.io/LLVIP/)[39m
|
||||
[38;5;12m142.[39m[38;5;12m [39m[38;5;14m[1mMSDA[0m[38;5;12m [39m[38;5;12m(https://github.com/bupt-ai-cz/Meta-SelfLearning)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mOver[39m[38;5;12m [39m[38;5;12mover[39m[38;5;12m [39m[38;5;12m5[39m[38;5;12m [39m[38;5;12mmillion[39m[38;5;12m [39m[38;5;12mimages[39m[38;5;12m [39m[38;5;12mfrom[39m[38;5;12m [39m[38;5;12m5[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mdomains[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mmulti-source[39m[38;5;12m [39m[38;5;12mocr/text[39m[38;5;12m [39m[38;5;12mrecognition[39m[38;5;12m [39m[38;5;12mDA[39m[38;5;12m [39m[38;5;12mresearch,[39m[38;5;12m [39m[38;5;14m[1mProject_Page[0m[38;5;12m [39m
|
||||
[38;5;12m(https://bupt-ai-cz.github.io/Meta-SelfLearning/)[39m
|
||||
[38;5;12m143.[39m[38;5;12m [39m[38;5;14m[1mSANAD:[0m[38;5;14m[1m [0m[38;5;14m[1mSingle-Label[0m[38;5;14m[1m [0m[38;5;14m[1mArabic[0m[38;5;14m[1m [0m[38;5;14m[1mNews[0m[38;5;14m[1m [0m[38;5;14m[1mArticles[0m[38;5;14m[1m [0m[38;5;14m[1mDataset[0m[38;5;14m[1m [0m[38;5;14m[1mfor[0m[38;5;14m[1m [0m[38;5;14m[1mAutomatic[0m[38;5;14m[1m [0m[38;5;14m[1mText[0m[38;5;14m[1m [0m[38;5;14m[1mCategorization[0m[38;5;12m [39m[38;5;12m(https://data.mendeley.com/datasets/57zpx667y9/2)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSANAD[39m[38;5;12m [39m[38;5;12mDataset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mlarge[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mArabic[39m[38;5;12m [39m[38;5;12mnews[39m[38;5;12m [39m
|
||||
[38;5;12marticles[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mcan[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mArabic[39m[38;5;12m [39m[38;5;12mNLP[39m[38;5;12m [39m[38;5;12mtasks[39m[38;5;12m [39m[38;5;12msuch[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mText[39m[38;5;12m [39m[38;5;12mClassification[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mWord[39m[38;5;12m [39m[38;5;12mEmbedding.[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12marticles[39m[38;5;12m [39m[38;5;12mwere[39m[38;5;12m [39m[38;5;12mcollected[39m[38;5;12m [39m[38;5;12musing[39m[38;5;12m [39m[38;5;12mPython[39m[38;5;12m [39m[38;5;12mscripts[39m[38;5;12m [39m[38;5;12mwritten[39m[38;5;12m [39m[38;5;12mspecifically[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12mpopular[39m
|
||||
[38;5;12mnews[39m[38;5;12m [39m[38;5;12mwebsites:[39m[38;5;12m [39m[38;5;12mAlKhaleej,[39m[38;5;12m [39m[38;5;12mAlArabiya[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mAkhbarona.[39m[38;5;12m [39m
|
||||
[38;5;12m144.[39m[38;5;12m [39m[38;5;14m[1mReferit3D[0m[38;5;12m [39m[38;5;12m(https://referit3d.github.io)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mTwo[39m[38;5;12m [39m[38;5;12mlarge-scale[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcomplementary[39m[38;5;12m [39m[38;5;12mvisio-linguistic[39m[38;5;12m [39m[38;5;12mdatasets[39m[38;5;12m [39m[38;5;12m(aka[39m[38;5;12m [39m[38;5;12mNr3D[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mSr3D)[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12midentifying[39m[38;5;12m [39m[38;5;12mfine-grained[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mScanNet[39m[38;5;12m [39m[38;5;12mscenes.[39m[38;5;12m [39m[38;5;12mNr3D[39m[38;5;12m [39m
|
||||
[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m41.5K[39m[38;5;12m [39m[38;5;12mnatural,[39m[38;5;12m [39m[38;5;12mfree-form[39m[38;5;12m [39m[38;5;12mutterances,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mSr3d[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m83.5K[39m[38;5;12m [39m[38;5;12mtemplate-based[39m[38;5;12m [39m[38;5;12mutterances.[39m
|
||||
[38;5;12m142. [39m[38;5;14m[1mMSDA[0m[38;5;12m (https://github.com/bupt-ai-cz/Meta-SelfLearning) - Over over 5 million images from 5 different domains for multi-source ocr/text recognition DA research, [39m[38;5;14m[1mProject_Page[0m[38;5;12m (https://bupt-ai-cz.github.io/Meta-SelfLearning/)[39m
|
||||
[38;5;12m143.[39m[38;5;12m [39m[38;5;14m[1mSANAD:[0m[38;5;14m[1m [0m[38;5;14m[1mSingle-Label[0m[38;5;14m[1m [0m[38;5;14m[1mArabic[0m[38;5;14m[1m [0m[38;5;14m[1mNews[0m[38;5;14m[1m [0m[38;5;14m[1mArticles[0m[38;5;14m[1m [0m[38;5;14m[1mDataset[0m[38;5;14m[1m [0m[38;5;14m[1mfor[0m[38;5;14m[1m [0m[38;5;14m[1mAutomatic[0m[38;5;14m[1m [0m[38;5;14m[1mText[0m[38;5;14m[1m [0m[38;5;14m[1mCategorization[0m[38;5;12m [39m[38;5;12m(https://data.mendeley.com/datasets/57zpx667y9/2)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mSANAD[39m[38;5;12m [39m[38;5;12mDataset[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mlarge[39m[38;5;12m [39m[38;5;12mcollection[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mArabic[39m[38;5;12m [39m[38;5;12mnews[39m[38;5;12m [39m[38;5;12marticles[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mcan[39m[38;5;12m [39m[38;5;12mbe[39m[38;5;12m [39m[38;5;12mused[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mdifferent[39m[38;5;12m [39m[38;5;12mArabic[39m
|
||||
[38;5;12mNLP[39m[38;5;12m [39m[38;5;12mtasks[39m[38;5;12m [39m[38;5;12msuch[39m[38;5;12m [39m[38;5;12mas[39m[38;5;12m [39m[38;5;12mText[39m[38;5;12m [39m[38;5;12mClassification[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mWord[39m[38;5;12m [39m[38;5;12mEmbedding.[39m[38;5;12m [39m[38;5;12mThe[39m[38;5;12m [39m[38;5;12marticles[39m[38;5;12m [39m[38;5;12mwere[39m[38;5;12m [39m[38;5;12mcollected[39m[38;5;12m [39m[38;5;12musing[39m[38;5;12m [39m[38;5;12mPython[39m[38;5;12m [39m[38;5;12mscripts[39m[38;5;12m [39m[38;5;12mwritten[39m[38;5;12m [39m[38;5;12mspecifically[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mthree[39m[38;5;12m [39m[38;5;12mpopular[39m[38;5;12m [39m[38;5;12mnews[39m[38;5;12m [39m[38;5;12mwebsites:[39m[38;5;12m [39m[38;5;12mAlKhaleej,[39m[38;5;12m [39m[38;5;12mAlArabiya[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mAkhbarona.[39m[38;5;12m [39m
|
||||
[38;5;12m144.[39m[38;5;12m [39m[38;5;14m[1mReferit3D[0m[38;5;12m [39m[38;5;12m(https://referit3d.github.io)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mTwo[39m[38;5;12m [39m[38;5;12mlarge-scale[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcomplementary[39m[38;5;12m [39m[38;5;12mvisio-linguistic[39m[38;5;12m [39m[38;5;12mdatasets[39m[38;5;12m [39m[38;5;12m(aka[39m[38;5;12m [39m[38;5;12mNr3D[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mSr3D)[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12midentifying[39m[38;5;12m [39m[38;5;12mfine-grained[39m[38;5;12m [39m[38;5;12m3D[39m[38;5;12m [39m[38;5;12mobjects[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12mScanNet[39m[38;5;12m [39m[38;5;12mscenes.[39m[38;5;12m [39m[38;5;12mNr3D[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m41.5K[39m[38;5;12m [39m[38;5;12mnatural,[39m[38;5;12m [39m[38;5;12mfree-form[39m[38;5;12m [39m[38;5;12mutterances,[39m
|
||||
[38;5;12mand[39m[38;5;12m [39m[38;5;12mSr3d[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12m83.5K[39m[38;5;12m [39m[38;5;12mtemplate-based[39m[38;5;12m [39m[38;5;12mutterances.[39m
|
||||
[38;5;12m145. [39m[38;5;14m[1mSQuAD[0m[38;5;12m (https://rajpurkar.github.io/SQuAD-explorer/) - Stanford released ~100,000 English QA pairs and ~50,000 unanswerable questions[39m
|
||||
[38;5;12m146. [39m[38;5;14m[1mFQuAD[0m[38;5;12m (https://fquad.illuin.tech/) - ~25,000 French QA pairs released by Illuin Technology[39m
|
||||
[38;5;12m147. [39m[38;5;14m[1mGermanQuAD and GermanDPR[0m[38;5;12m (https://www.deepset.ai/germanquad) - deepset released ~14,000 German QA pairs[39m
|
||||
@@ -651,8 +626,7 @@
|
||||
[38;5;12m51. [39m[38;5;14m[1mCoach - Reinforcement Learning Coach by Intel® AI Lab[0m[38;5;12m (https://github.com/NervanaSystems/coach)[39m
|
||||
[38;5;12m52. [39m[38;5;14m[1malbumentations - A fast and framework agnostic image augmentation library[0m[38;5;12m (https://github.com/albu/albumentations)[39m
|
||||
[38;5;12m53. [39m[38;5;14m[1mNeuraxle - A general-purpose ML pipelining framework[0m[38;5;12m (https://github.com/Neuraxio/Neuraxle)[39m
|
||||
[38;5;12m54.[39m[38;5;12m [39m[38;5;14m[1mCatalyst:[0m[38;5;14m[1m [0m[38;5;14m[1mHigh-level[0m[38;5;14m[1m [0m[38;5;14m[1mutils[0m[38;5;14m[1m [0m[38;5;14m[1mfor[0m[38;5;14m[1m [0m[38;5;14m[1mPyTorch[0m[38;5;14m[1m [0m[38;5;14m[1mDL[0m[38;5;14m[1m [0m[38;5;14m[1m&[0m[38;5;14m[1m [0m[38;5;14m[1mRL[0m[38;5;14m[1m [0m[38;5;14m[1mresearch.[0m[38;5;14m[1m [0m[38;5;14m[1mIt[0m[38;5;14m[1m [0m[38;5;14m[1mwas[0m[38;5;14m[1m [0m[38;5;14m[1mdeveloped[0m[38;5;14m[1m [0m[38;5;14m[1mwith[0m[38;5;14m[1m [0m[38;5;14m[1ma[0m[38;5;14m[1m [0m[38;5;14m[1mfocus[0m[38;5;14m[1m [0m[38;5;14m[1mon[0m[38;5;14m[1m [0m[38;5;14m[1mreproducibility,[0m[38;5;14m[1m [0m[38;5;14m[1mfast[0m[38;5;14m[1m [0m[38;5;14m[1mexperimentation[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mcode/ideas[0m[38;5;14m[1m [0m[38;5;14m[1mreusing[0m[38;5;12m [39m
|
||||
[38;5;12m(https://github.com/catalyst-team/catalyst)[39m
|
||||
[38;5;12m54. [39m[38;5;14m[1mCatalyst: High-level utils for PyTorch DL & RL research. It was developed with a focus on reproducibility, fast experimentation and code/ideas reusing[0m[38;5;12m (https://github.com/catalyst-team/catalyst)[39m
|
||||
[38;5;12m55. [39m[38;5;14m[1mgarage - A toolkit for reproducible reinforcement learning research[0m[38;5;12m (https://github.com/rlworkgroup/garage)[39m
|
||||
[38;5;12m56. [39m[38;5;14m[1mDetecto - Train and run object detection models with 5-10 lines of code[0m[38;5;12m (https://github.com/alankbi/detecto)[39m
|
||||
[38;5;12m57. [39m[38;5;14m[1mKarate Club - An unsupervised machine learning library for graph structured data[0m[38;5;12m (https://github.com/benedekrozemberczki/karateclub)[39m
|
||||
@@ -679,28 +653,23 @@
|
||||
[38;5;12m4. [39m[38;5;14m[1mVisual Studio Tools for AI[0m[38;5;12m (https://www.microsoft.com/en-us/research/project/visual-studio-code-tools-ai/) - Develop, debug and deploy deep learning and AI solutions[39m
|
||||
[38;5;12m5. [39m[38;5;14m[1mTensorWatch[0m[38;5;12m (https://github.com/microsoft/tensorwatch) - Debugging and visualization for deep learning[39m
|
||||
[38;5;12m6. [39m[38;5;14m[1mML Workspace[0m[38;5;12m (https://github.com/ml-tooling/ml-workspace) - All-in-one web-based IDE for machine learning and data science.[39m
|
||||
[38;5;12m7.[39m[38;5;12m [39m[38;5;14m[1mdowel[0m[38;5;12m [39m[38;5;12m(https://github.com/rlworkgroup/dowel)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mA[39m[38;5;12m [39m[38;5;12mlittle[39m[38;5;12m [39m[38;5;12mlogger[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mmachine[39m[38;5;12m [39m[38;5;12mlearning[39m[38;5;12m [39m[38;5;12mresearch.[39m[38;5;12m [39m[38;5;12mLog[39m[38;5;12m [39m[38;5;12many[39m[38;5;12m [39m[38;5;12mobject[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mconsole,[39m[38;5;12m [39m[38;5;12mCSVs,[39m[38;5;12m [39m[38;5;12mTensorBoard,[39m[38;5;12m [39m[38;5;12mtext[39m[38;5;12m [39m[38;5;12mlog[39m[38;5;12m [39m[38;5;12mfiles,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mmore[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mjust[39m[38;5;12m [39m[38;5;12mone[39m[38;5;12m [39m[38;5;12mcall[39m
|
||||
[38;5;12mto[39m[38;5;12m [39m[48;5;235m[38;5;249mlogger.log()[49m[39m
|
||||
[38;5;12m7. [39m[38;5;14m[1mdowel[0m[38;5;12m (https://github.com/rlworkgroup/dowel) - A little logger for machine learning research. Log any object to the console, CSVs, TensorBoard, text log files, and more with just one call to [39m[48;5;235m[38;5;249mlogger.log()[49m[39m
|
||||
[38;5;12m8. [39m[38;5;14m[1mNeptune[0m[38;5;12m (https://neptune.ai/) - Lightweight tool for experiment tracking and results visualization. [39m
|
||||
[38;5;12m9.[39m[38;5;12m [39m[38;5;14m[1mCatalyzeX[0m[38;5;12m [39m[38;5;12m(https://chrome.google.com/webstore/detail/code-finder-for-research/aikkeehnlfpamidigaffhfmgbkdeheil)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mBrowser[39m[38;5;12m [39m[38;5;12mextension[39m[38;5;12m [39m[38;5;12m([39m[38;5;14m[1mChrome[0m[38;5;12m [39m
|
||||
[38;5;12m(https://chrome.google.com/webstore/detail/code-finder-for-research/aikkeehnlfpamidigaffhfmgbkdeheil)[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;14m[1mFirefox[0m[38;5;12m [39m[38;5;12m(https://addons.mozilla.org/en-US/firefox/addon/code-finder-catalyzex/))[39m[38;5;12m [39m[38;5;12mthat[39m
|
||||
[38;5;12mautomatically[39m[38;5;12m [39m[38;5;12mfinds[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mlinks[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mcode[39m[38;5;12m [39m[38;5;12mimplementations[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mML[39m[38;5;12m [39m[38;5;12mpapers[39m[38;5;12m [39m[38;5;12manywhere[39m[38;5;12m [39m[38;5;12monline:[39m[38;5;12m [39m[38;5;12mGoogle,[39m[38;5;12m [39m[38;5;12mTwitter,[39m[38;5;12m [39m[38;5;12mArxiv,[39m[38;5;12m [39m[38;5;12mScholar,[39m[38;5;12m [39m[38;5;12metc.[39m
|
||||
[38;5;12m10.[39m[38;5;12m [39m[38;5;14m[1mDetermined[0m[38;5;12m [39m[38;5;12m(https://github.com/determined-ai/determined)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mDeep[39m[38;5;12m [39m[38;5;12mlearning[39m[38;5;12m [39m[38;5;12mtraining[39m[38;5;12m [39m[38;5;12mplatform[39m[38;5;12m [39m[38;5;12mwith[39m[38;5;12m [39m[38;5;12mintegrated[39m[38;5;12m [39m[38;5;12msupport[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mdistributed[39m[38;5;12m [39m[38;5;12mtraining,[39m[38;5;12m [39m[38;5;12mhyperparameter[39m[38;5;12m [39m[38;5;12mtuning,[39m[38;5;12m [39m[38;5;12msmart[39m[38;5;12m [39m[38;5;12mGPU[39m[38;5;12m [39m[38;5;12mscheduling,[39m[38;5;12m [39m
|
||||
[38;5;12mexperiment[39m[38;5;12m [39m[38;5;12mtracking,[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mmodel[39m[38;5;12m [39m[38;5;12mregistry.[39m
|
||||
[38;5;12m(https://chrome.google.com/webstore/detail/code-finder-for-research/aikkeehnlfpamidigaffhfmgbkdeheil)[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;14m[1mFirefox[0m[38;5;12m [39m[38;5;12m(https://addons.mozilla.org/en-US/firefox/addon/code-finder-catalyzex/))[39m[38;5;12m [39m[38;5;12mthat[39m[38;5;12m [39m[38;5;12mautomatically[39m[38;5;12m [39m[38;5;12mfinds[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mlinks[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mcode[39m[38;5;12m [39m
|
||||
[38;5;12mimplementations[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mML[39m[38;5;12m [39m[38;5;12mpapers[39m[38;5;12m [39m[38;5;12manywhere[39m[38;5;12m [39m[38;5;12monline:[39m[38;5;12m [39m[38;5;12mGoogle,[39m[38;5;12m [39m[38;5;12mTwitter,[39m[38;5;12m [39m[38;5;12mArxiv,[39m[38;5;12m [39m[38;5;12mScholar,[39m[38;5;12m [39m[38;5;12metc.[39m
|
||||
[38;5;12m10. [39m[38;5;14m[1mDetermined[0m[38;5;12m (https://github.com/determined-ai/determined) - Deep learning training platform with integrated support for distributed training, hyperparameter tuning, smart GPU scheduling, experiment tracking, and a model registry.[39m
|
||||
[38;5;12m11. [39m[38;5;14m[1mDAGsHub[0m[38;5;12m (https://dagshub.com/) - Community platform for Open Source ML – Manage experiments, data & models and create collaborative ML projects easily.[39m
|
||||
[38;5;12m12.[39m[38;5;12m [39m[38;5;14m[1mhub[0m[38;5;12m [39m[38;5;12m(https://github.com/activeloopai/Hub)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mFastest[39m[38;5;12m [39m[38;5;12munstructured[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mmanagement[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mTensorFlow/PyTorch[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mactiveloop.ai.[39m[38;5;12m [39m[38;5;12mStream[39m[38;5;12m [39m[38;5;12m&[39m[38;5;12m [39m[38;5;12mversion-control[39m[38;5;12m [39m[38;5;12mdata.[39m[38;5;12m [39m[38;5;12mConverts[39m[38;5;12m [39m[38;5;12mlarge[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12minto[39m[38;5;12m [39m[38;5;12msingle[39m
|
||||
[38;5;12mnumpy-like[39m[38;5;12m [39m[38;5;12marray[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mcloud,[39m[38;5;12m [39m[38;5;12maccessible[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12many[39m[38;5;12m [39m[38;5;12mmachine.[39m
|
||||
[38;5;12m12.[39m[38;5;12m [39m[38;5;14m[1mhub[0m[38;5;12m [39m[38;5;12m(https://github.com/activeloopai/Hub)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mFastest[39m[38;5;12m [39m[38;5;12munstructured[39m[38;5;12m [39m[38;5;12mdataset[39m[38;5;12m [39m[38;5;12mmanagement[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mTensorFlow/PyTorch[39m[38;5;12m [39m[38;5;12mby[39m[38;5;12m [39m[38;5;12mactiveloop.ai.[39m[38;5;12m [39m[38;5;12mStream[39m[38;5;12m [39m[38;5;12m&[39m[38;5;12m [39m[38;5;12mversion-control[39m[38;5;12m [39m[38;5;12mdata.[39m[38;5;12m [39m[38;5;12mConverts[39m[38;5;12m [39m[38;5;12mlarge[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12minto[39m[38;5;12m [39m[38;5;12msingle[39m[38;5;12m [39m[38;5;12mnumpy-like[39m[38;5;12m [39m[38;5;12marray[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mcloud,[39m[38;5;12m [39m
|
||||
[38;5;12maccessible[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12many[39m[38;5;12m [39m[38;5;12mmachine.[39m
|
||||
[38;5;12m13. [39m[38;5;14m[1mDVC[0m[38;5;12m (https://dvc.org/) - DVC is built to make ML models shareable and reproducible. It is designed to handle large files, data sets, machine learning models, and metrics as well as code.[39m
|
||||
[38;5;12m14. [39m[38;5;14m[1mCML[0m[38;5;12m (https://cml.dev/) - CML helps you bring your favorite DevOps tools to machine learning.[39m
|
||||
[38;5;12m15.[39m[38;5;12m [39m[38;5;14m[1mMLEM[0m[38;5;12m [39m[38;5;12m(https://mlem.ai/)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mMLEM[39m[38;5;12m [39m[38;5;12mis[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mtool[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12measily[39m[38;5;12m [39m[38;5;12mpackage,[39m[38;5;12m [39m[38;5;12mdeploy[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mserve[39m[38;5;12m [39m[38;5;12mMachine[39m[38;5;12m [39m[38;5;12mLearning[39m[38;5;12m [39m[38;5;12mmodels.[39m[38;5;12m [39m[38;5;12mIt[39m[38;5;12m [39m[38;5;12mseamlessly[39m[38;5;12m [39m[38;5;12msupports[39m[38;5;12m [39m[38;5;12ma[39m[38;5;12m [39m[38;5;12mvariety[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mscenarios[39m[38;5;12m [39m[38;5;12mlike[39m[38;5;12m [39m[38;5;12mreal-time[39m[38;5;12m [39m[38;5;12mserving[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mbatch[39m[38;5;12m [39m
|
||||
[38;5;12mprocessing.[39m
|
||||
[38;5;12m15. [39m[38;5;14m[1mMLEM[0m[38;5;12m (https://mlem.ai/) - MLEM is a tool to easily package, deploy and serve Machine Learning models. It seamlessly supports a variety of scenarios like real-time serving and batch processing.[39m
|
||||
|
||||
|
||||
[38;2;255;187;0m[4mMiscellaneous[0m
|
||||
|
||||
[38;5;12m1.[39m[38;5;12m [39m[38;5;14m[1mCaffe[0m[38;5;14m[1m [0m[38;5;14m[1mWebinar[0m[38;5;12m [39m
|
||||
[38;5;12m(http://on-demand-gtc.gputechconf.com/gtcnew/on-demand-gtc.php?searchByKeyword=shelhamer&searchItems=&sessionTopic=&sessionEvent=4&sessionYear=2014&sessionFormat=&subm[39m
|
||||
[38;5;12mit=&select=+)[39m
|
||||
[38;5;12m1. [39m[38;5;14m[1mCaffe Webinar[0m[38;5;12m (http://on-demand-gtc.gputechconf.com/gtcnew/on-demand-gtc.php?searchByKeyword=shelhamer&searchItems=&sessionTopic=&sessionEvent=4&sessionYear=2014&sessionFormat=&submit=&select=+)[39m
|
||||
[38;5;12m2. [39m[38;5;14m[1m100 Best Github Resources in Github for DL[0m[38;5;12m (http://meta-guide.com/software-meta-guide/100-best-github-deep-learning/)[39m
|
||||
[38;5;12m3. [39m[38;5;14m[1mWord2Vec[0m[38;5;12m (https://code.google.com/p/word2vec/)[39m
|
||||
[38;5;12m4. [39m[38;5;14m[1mCaffe DockerFile[0m[38;5;12m (https://github.com/tleyden/docker/tree/master/caffe)[39m
|
||||
@@ -709,10 +678,8 @@
|
||||
[38;5;12m7. [39m[38;5;14m[1mTorch7 Cheat sheet[0m[38;5;12m (https://github.com/torch/torch7/wiki/Cheatsheet)[39m
|
||||
[38;5;12m8. [39m[38;5;14m[1mMisc from MIT's 'Advanced Natural Language Processing' course[0m[38;5;12m (http://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-864-advanced-natural-language-processing-fall-2005/)[39m
|
||||
[38;5;12m9. [39m[38;5;14m[1mMisc from MIT's 'Machine Learning' course[0m[38;5;12m (http://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-867-machine-learning-fall-2006/lecture-notes/)[39m
|
||||
[38;5;12m10.[39m[38;5;12m [39m[38;5;14m[1mMisc[0m[38;5;14m[1m [0m[38;5;14m[1mfrom[0m[38;5;14m[1m [0m[38;5;14m[1mMIT's[0m[38;5;14m[1m [0m[38;5;14m[1m'Networks[0m[38;5;14m[1m [0m[38;5;14m[1mfor[0m[38;5;14m[1m [0m[38;5;14m[1mLearning:[0m[38;5;14m[1m [0m[38;5;14m[1mRegression[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mClassification'[0m[38;5;14m[1m [0m[38;5;14m[1mcourse[0m[38;5;12m [39m
|
||||
[38;5;12m(http://ocw.mit.edu/courses/brain-and-cognitive-sciences/9-520-a-networks-for-learning-regression-and-classification-spring-2001/)[39m
|
||||
[38;5;12m11.[39m[38;5;12m [39m[38;5;14m[1mMisc[0m[38;5;14m[1m [0m[38;5;14m[1mfrom[0m[38;5;14m[1m [0m[38;5;14m[1mMIT's[0m[38;5;14m[1m [0m[38;5;14m[1m'Neural[0m[38;5;14m[1m [0m[38;5;14m[1mCoding[0m[38;5;14m[1m [0m[38;5;14m[1mand[0m[38;5;14m[1m [0m[38;5;14m[1mPerception[0m[38;5;14m[1m [0m[38;5;14m[1mof[0m[38;5;14m[1m [0m[38;5;14m[1mSound'[0m[38;5;14m[1m [0m[38;5;14m[1mcourse[0m[38;5;12m [39m
|
||||
[38;5;12m(http://ocw.mit.edu/courses/health-sciences-and-technology/hst-723j-neural-coding-and-perception-of-sound-spring-2005/index.htm)[39m
|
||||
[38;5;12m10. [39m[38;5;14m[1mMisc from MIT's 'Networks for Learning: Regression and Classification' course[0m[38;5;12m (http://ocw.mit.edu/courses/brain-and-cognitive-sciences/9-520-a-networks-for-learning-regression-and-classification-spring-2001/)[39m
|
||||
[38;5;12m11. [39m[38;5;14m[1mMisc from MIT's 'Neural Coding and Perception of Sound' course[0m[38;5;12m (http://ocw.mit.edu/courses/health-sciences-and-technology/hst-723j-neural-coding-and-perception-of-sound-spring-2005/index.htm)[39m
|
||||
[38;5;12m12. [39m[38;5;14m[1mImplementing a Distributed Deep Learning Network over Spark[0m[38;5;12m (http://www.datasciencecentral.com/profiles/blogs/implementing-a-distributed-deep-learning-network-over-spark)[39m
|
||||
[38;5;12m13. [39m[38;5;14m[1mA chess AI that learns to play chess using deep learning.[0m[38;5;12m (https://github.com/erikbern/deep-pink)[39m
|
||||
[38;5;12m14. [39m[38;5;14m[1mReproducing the results of "Playing Atari with Deep Reinforcement Learning" by DeepMind[0m[38;5;12m (https://github.com/kristjankorjus/Replicating-DeepMind)[39m
|
||||
@@ -734,12 +701,10 @@
|
||||
[38;5;12m30. [39m[38;5;14m[1mSiraj Raval's Deep Learning tutorials[0m[38;5;12m (https://www.youtube.com/channel/UCWN3xxRkmTPmbKwht9FuE5A)[39m
|
||||
[38;5;12m31. [39m[38;5;14m[1mDockerface[0m[38;5;12m (https://github.com/natanielruiz/dockerface) - Easy to install and use deep learning Faster R-CNN face detection for images and video in a docker container.[39m
|
||||
[38;5;12m32. [39m[38;5;14m[1mAwesome Deep Learning Music[0m[38;5;12m (https://github.com/ybayle/awesome-deep-learning-music) - Curated list of articles related to deep learning scientific research applied to music[39m
|
||||
[38;5;12m33.[39m[38;5;12m [39m[38;5;14m[1mAwesome[0m[38;5;14m[1m [0m[38;5;14m[1mGraph[0m[38;5;14m[1m [0m[38;5;14m[1mEmbedding[0m[38;5;12m [39m[38;5;12m(https://github.com/benedekrozemberczki/awesome-graph-embedding)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mCurated[39m[38;5;12m [39m[38;5;12mlist[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12marticles[39m[38;5;12m [39m[38;5;12mrelated[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mlearning[39m[38;5;12m [39m[38;5;12mscientific[39m[38;5;12m [39m[38;5;12mresearch[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mgraph[39m[38;5;12m [39m[38;5;12mstructured[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m
|
||||
[38;5;12mat[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m[38;5;12mgraph[39m[38;5;12m [39m[38;5;12mlevel.[39m
|
||||
[38;5;12m34.[39m[38;5;12m [39m[38;5;14m[1mAwesome[0m[38;5;14m[1m [0m[38;5;14m[1mNetwork[0m[38;5;14m[1m [0m[38;5;14m[1mEmbedding[0m[38;5;12m [39m[38;5;12m(https://github.com/chihming/awesome-network-embedding)[39m[38;5;12m [39m[38;5;12m-[39m[38;5;12m [39m[38;5;12mCurated[39m[38;5;12m [39m[38;5;12mlist[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12marticles[39m[38;5;12m [39m[38;5;12mrelated[39m[38;5;12m [39m[38;5;12mto[39m[38;5;12m [39m[38;5;12mdeep[39m[38;5;12m [39m[38;5;12mlearning[39m[38;5;12m [39m[38;5;12mscientific[39m[38;5;12m [39m[38;5;12mresearch[39m[38;5;12m [39m[38;5;12mon[39m[38;5;12m [39m[38;5;12mgraph[39m[38;5;12m [39m[38;5;12mstructured[39m[38;5;12m [39m[38;5;12mdata[39m[38;5;12m [39m[38;5;12mat[39m[38;5;12m [39m[38;5;12mthe[39m[38;5;12m [39m
|
||||
[38;5;12mnode[39m[38;5;12m [39m[38;5;12mlevel.[39m
|
||||
[38;5;12m35.[39m[38;5;12m [39m[38;5;14m[1mMicrosoft[0m[38;5;14m[1m [0m[38;5;14m[1mRecommenders[0m[38;5;12m [39m[38;5;12m(https://github.com/Microsoft/Recommenders)[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12mexamples,[39m[38;5;12m [39m[38;5;12mutilities[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mbest[39m[38;5;12m [39m[38;5;12mpractices[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mbuilding[39m[38;5;12m [39m[38;5;12mrecommendation[39m[38;5;12m [39m[38;5;12msystems.[39m[38;5;12m [39m[38;5;12mImplementations[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m
|
||||
[38;5;12mstate-of-the-art[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mprovided[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mself-study[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcustomization[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12myour[39m[38;5;12m [39m[38;5;12mown[39m[38;5;12m [39m[38;5;12mapplications.[39m
|
||||
[38;5;12m33. [39m[38;5;14m[1mAwesome Graph Embedding[0m[38;5;12m (https://github.com/benedekrozemberczki/awesome-graph-embedding) - Curated list of articles related to deep learning scientific research on graph structured data at the graph level.[39m
|
||||
[38;5;12m34. [39m[38;5;14m[1mAwesome Network Embedding[0m[38;5;12m (https://github.com/chihming/awesome-network-embedding) - Curated list of articles related to deep learning scientific research on graph structured data at the node level.[39m
|
||||
[38;5;12m35.[39m[38;5;12m [39m[38;5;14m[1mMicrosoft[0m[38;5;14m[1m [0m[38;5;14m[1mRecommenders[0m[38;5;12m [39m[38;5;12m(https://github.com/Microsoft/Recommenders)[39m[38;5;12m [39m[38;5;12mcontains[39m[38;5;12m [39m[38;5;12mexamples,[39m[38;5;12m [39m[38;5;12mutilities[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mbest[39m[38;5;12m [39m[38;5;12mpractices[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m[38;5;12mbuilding[39m[38;5;12m [39m[38;5;12mrecommendation[39m[38;5;12m [39m[38;5;12msystems.[39m[38;5;12m [39m[38;5;12mImplementations[39m[38;5;12m [39m[38;5;12mof[39m[38;5;12m [39m[38;5;12mseveral[39m[38;5;12m [39m[38;5;12mstate-of-the-art[39m[38;5;12m [39m[38;5;12malgorithms[39m[38;5;12m [39m[38;5;12mare[39m[38;5;12m [39m[38;5;12mprovided[39m[38;5;12m [39m[38;5;12mfor[39m[38;5;12m [39m
|
||||
[38;5;12mself-study[39m[38;5;12m [39m[38;5;12mand[39m[38;5;12m [39m[38;5;12mcustomization[39m[38;5;12m [39m[38;5;12min[39m[38;5;12m [39m[38;5;12myour[39m[38;5;12m [39m[38;5;12mown[39m[38;5;12m [39m[38;5;12mapplications.[39m
|
||||
[38;5;12m36. [39m[38;5;14m[1mThe Unreasonable Effectiveness of Recurrent Neural Networks[0m[38;5;12m (http://karpathy.github.io/2015/05/21/rnn-effectiveness/) - Andrej Karpathy blog post about using RNN for generating text.[39m
|
||||
[38;5;12m37. [39m[38;5;14m[1mLadder Network[0m[38;5;12m (https://github.com/divamgupta/ladder_network_keras) - Keras Implementation of Ladder Network for Semi-Supervised Learning [39m
|
||||
[38;5;12m38. [39m[38;5;14m[1mtoolbox: Curated list of ML libraries[0m[38;5;12m (https://github.com/amitness/toolbox)[39m
|
||||
@@ -747,11 +712,11 @@
|
||||
[38;5;12m40. [39m[38;5;14m[1mAI Expert Roadmap[0m[38;5;12m (https://github.com/AMAI-GmbH/AI-Expert-Roadmap) - Roadmap to becoming an Artificial Intelligence Expert[39m
|
||||
[38;5;12m41. [39m[38;5;14m[1mAwesome Drug Interactions, Synergy, and Polypharmacy Prediction[0m[38;5;12m (https://github.com/AstraZeneca/awesome-polipharmacy-side-effect-prediction/)[39m
|
||||
|
||||
[38;5;238m―――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――[39m
|
||||
[38;5;238m――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――[39m
|
||||
[38;2;255;187;0m[4mContributing[0m
|
||||
[38;5;12mHave anything in mind that you think is awesome and would fit in this list? Feel free to send a [39m[38;5;14m[1mpull request[0m[38;5;12m (https://github.com/ashara12/awesome-deeplearning/pulls).[39m
|
||||
|
||||
[38;5;238m―――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――[39m
|
||||
[38;5;238m――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――[39m
|
||||
[38;2;255;187;0m[4mLicense[0m
|
||||
|
||||
[38;5;14m[1m![0m[38;5;12mCC0[39m[38;5;14m[1m (http://i.creativecommons.org/p/zero/1.0/88x31.png)[0m[38;5;12m (http://creativecommons.org/publicdomain/zero/1.0/)[39m
|
||||
|
||||
Reference in New Issue
Block a user