KerasによるCNNでCIFAR-10
今回のテーマは、Kerasライブラリを使って、CIFAR-10を学習します。
ディープラーニング、今回は、CNNで学習します。
プログラムは、前回のプログラムを修正したものです。
Kerasで畳み込みニューラルネットワーク-簡単なCNNのコード-...
CIFAR-10をCNNで学習
CIFAR-10は、画像のデータベースです。
画像データ
- 訓練データ5,0000枚
- テストデータ1,0000枚
- 合計6,0000枚
画像サイズは、32×32
フルカラー(RGBの3チャネル)
正解ラベル
“airplane”, “automobile”, “bird”, “deer”, “dog”, “frog”, “horse”, “ship”, “truck”
以上の10ラベル
詳しくは、以下のページを見てください。
CIFAR-10 and CIFAR-100 datasets
CNNの学習結果
結果として、出力データを提示します。
次に、考察のような感想を書きます。
出力データ
Test Loss:1.264
Test accuracy:0.58
time:318.900sec
考察
テスト精度が、0.58と低い結果となった。
これは、畳み込み層と全結合層を増やすことで、改善できることでしょう。
今回は、畳み込み層が1層、全結合層は、中間層が1層のニューラルネットワークを構築しました。
簡単なネットワークですが、
実行時間が319秒、つまり、5分かかっています。
層を増やすことで、これよりもっと時間がかかるでしょう。
CNNのプログラム
# データの読み込みと前処理 from keras.utils import np_utils # kerasでCNN構築 from keras.models import Sequential from keras.layers import Conv2D, MaxPooling2D from keras.layers import Activation, Dropout, Flatten, Dense from keras.optimizers import Adam # 時間計測 import time ''' データの読み込みと前処理 ''' # CIFAR-10 from keras.datasets import cifar10 (X_train, y_train), (X_test, y_test) = cifar10.load_data() ''' 訓練用 ''' # 訓練データ X_train = X_train.astype('float32') # 型を変更 X_train /= 255 # 0から1.0の範囲に変換 # 正解ラベル correct = 10 y_train = np_utils.to_categorical(y_train, correct) ''' テスト用 ''' # テストデータ X_test = X_test.astype('float32') X_test /= 255 # 正解ラベル y_test = np_utils.to_categorical(y_test, correct) # 画像の情報 input_size = X_train.shape[1] input_color = X_train.shape[3] ''' CNNの構築 ''' model = Sequential() model.add(Conv2D(filters=10, kernel_size=(3, 3), padding='same', input_shape=(input_size, input_size, input_color), activation='relu')) model.add(Flatten()) model.add(Dense(10, activation='softmax')) model.compile(loss='categorical_crossentropy', optimizer=Adam(), metrics=['accuracy']) ''' 学習 ''' # 計測開始 startTime = time.time() history = model.fit(X_train, y_train, epochs=20, batch_size=100, verbose=1, validation_data=(X_test, y_test)) score = model.evaluate(X_test, y_test, verbose=0) print('Test Loss:{0:.3f}'.format(score[0])) print('Test accuracy:{0:.3}'.format(score[1])) # 処理時間 print("time:{0:.3f}sec".format(time.time() - startTime))