標籤:
1、mnist
Google實驗室的Corinna Cortes和紐約大學柯朗研究所的Yann LeCun建的一個手寫數字資料庫,訓練庫有60,000張手寫數位影像,測試庫有10,000張。對應的手寫辨識模型為LeNet。
資料地址:http://yann.lecun.com/exdb/mnist/
2、cifar10
由Hinton的兩個大弟子Alex Krizhevsky、Ilya Sutskever收集的一個用於普適物體識別的資料集。Cifar是加拿大牽頭投資的一個先進科學項目研究所。
CIFAR-10資料集包含60000個32*32的彩色映像,共有10類。有50000個訓練映像和10000個測試映像。資料集分為5個訓練塊和1個測試塊,每個塊有10000個映像。測試塊包含從每類隨機播放的1000個映像。訓練塊以隨機的順序包含這些映像,但一些訓練塊可能比其它類包含更多的映像。訓練塊每類包含5000個映像。類間完全互斥。這個資料集最大的特點在於將識別遷移到了普適物體,而且應用於多分類(姊妹資料集Cifar-100達到100類,ILSVRC比賽則是1000類)。同已經成熟的Face Service相比,普適物體識別挑戰巨大,資料中含有大量特徵、雜訊,識別物體比例不一,而且分類龐大。
3、cifar100
資料集包含100小類,每小類包含600個映像,其中有500個訓練映像和100個測試映像。100類被分組為20個大類。每個映像帶有1個小類的“fine”標籤和1個大類“coarse”標籤。
4、ImageNet
ImageNet 是一個電腦視覺系統識別項目,是目前世界像識別最大的資料庫。2010年,來自斯坦福大學、普林斯頓大學及哥倫比亞大學的科學家們啟動ImageNet大規模視覺識別挑戰賽(ImageNet Large Scale Visual Recognition Challenge,ILSVRC)。ILSVRC2012是2012年的比賽資料集,在此次比賽中,Alex提出的AlexNet網路結構模型贏得了冠軍;ILSVRC2014是2014年的比賽資料集,在此次比賽中,GoogLeNet,VGGNet分獲冠亞軍。
深度學習資料集+模型說明