KerasによるCNNでCIFAR-10
今回のテーマは、Kerasライブラリを使って、CIFAR-10を学習します。
ディープラーニング、今回は、CNNで学習します。
プログラムは、前回のプログラムを修正したものです。
Kerasで畳み込みニューラルネットワーク-簡単なCNNのコード-...
CIFAR-10をCNNで学習
CIFAR-10は、画像のデータベースです。
画像データ
- 訓練データ5,0000枚
- テストデータ1,0000枚
- 合計6,0000枚
画像サイズは、32×32
フルカラー(RGBの3チャネル)
正解ラベル
“airplane”, “automobile”, “bird”, “deer”, “dog”, “frog”, “horse”, “ship”, “truck”
以上の10ラベル
詳しくは、以下のページを見てください。
CIFAR-10 and CIFAR-100 datasets
CNNの学習結果
結果として、出力データを提示します。
次に、考察のような感想を書きます。
出力データ
Test Loss:1.264
Test accuracy:0.58
time:318.900sec
考察
テスト精度が、0.58と低い結果となった。
これは、畳み込み層と全結合層を増やすことで、改善できることでしょう。
今回は、畳み込み層が1層、全結合層は、中間層が1層のニューラルネットワークを構築しました。
簡単なネットワークですが、
実行時間が319秒、つまり、5分かかっています。
層を増やすことで、これよりもっと時間がかかるでしょう。
CNNのプログラム
# データの読み込みと前処理
from keras.utils import np_utils
# kerasでCNN構築
from keras.models import Sequential
from keras.layers import Conv2D, MaxPooling2D
from keras.layers import Activation, Dropout, Flatten, Dense
from keras.optimizers import Adam
# 時間計測
import time
'''
データの読み込みと前処理
'''
# CIFAR-10
from keras.datasets import cifar10
(X_train, y_train), (X_test, y_test) = cifar10.load_data()
'''
訓練用
'''
# 訓練データ
X_train = X_train.astype('float32') # 型を変更
X_train /= 255 # 0から1.0の範囲に変換
# 正解ラベル
correct = 10
y_train = np_utils.to_categorical(y_train, correct)
'''
テスト用
'''
# テストデータ
X_test = X_test.astype('float32')
X_test /= 255
# 正解ラベル
y_test = np_utils.to_categorical(y_test, correct)
# 画像の情報
input_size = X_train.shape[1]
input_color = X_train.shape[3]
'''
CNNの構築
'''
model = Sequential()
model.add(Conv2D(filters=10, kernel_size=(3, 3), padding='same', input_shape=(input_size, input_size, input_color),
activation='relu'))
model.add(Flatten())
model.add(Dense(10, activation='softmax'))
model.compile(loss='categorical_crossentropy', optimizer=Adam(), metrics=['accuracy'])
'''
学習
'''
# 計測開始
startTime = time.time()
history = model.fit(X_train, y_train, epochs=20, batch_size=100, verbose=1, validation_data=(X_test, y_test))
score = model.evaluate(X_test, y_test, verbose=0)
print('Test Loss:{0:.3f}'.format(score[0]))
print('Test accuracy:{0:.3}'.format(score[1]))
# 処理時間
print("time:{0:.3f}sec".format(time.time() - startTime))

