TensorFlowによるニューラルネットでMNISTの画像認識
今回は、TensorFlowでディープラーニングについてメモします。
ディープラーニング、ディープニューラルネットワークをDNNを略します。
今までは、Kerasでネットワークを構築、学習させていました。
今回は、TensorFlowを使います。
学習対象
学習対象は、MNISTの手書き数字です。
TensorFlow
TensorFlowを独断的に説明します。
(あくまで私の意見なので鵜呑みにはしないでくださいね)
TensorFlowは、機械学習、特にニューラルネットワークで使用されるライブラリです。
ニューラルネットワークにおいて、効率的にモデルの構築・学習することができます。
計算グラフ(私はよくわかっていません)を使っているので、計算が高速
このブログで扱っていたKerasは、TensorFlowの利用しています。
難易度としては、
TensorFlow > Kerasという認識です。
DNNのモデル構成
※下の画像はイメージです。今回構築するモデルではありません。
入力層
MNISTの手書き数字は、28×28の784です。
ニューロン素子:784
中間層
1層
ニューロン素子:64
出力層
MNISTの手書き数字は、0〜9までなので、10にカテゴライズできる。
ソフトマックス関数を使って、出力を割合として出す。
ニューロン素子:10
プログラム
#MNISTパッケージ from tensorflow.examples.tutorials.mnist import input_data import tensorflow as tf #入力データを定義 x = tf.placeholder(tf.float32, [None, 784]) #入力層から中間層 w_1 = tf.Variable(tf.truncated_normal([784, 64], stddev=0.1), name="w1") b_1 = tf.Variable(tf.zeros([64]), name="b1") h_1 = tf.nn.relu(tf.matmul(x, w_1) + b_1) #中間層から出力層 w_2 = tf.Variable(tf.truncated_normal([64, 10], stddev=0.1), name="w2") b_2 = tf.Variable(tf.zeros([10]), name="b2") out = tf.nn.softmax(tf.matmul(h_1, w_2) + b_2) #誤差関数 y = tf.placeholder(tf.float32, [None, 10]) loss = tf.reduce_mean(tf.square(y-out)) #訓練 train_step = tf.train.GradientDescentOptimizer(0.5).minimize(loss) #評価 correct = tf.equal(tf.argmax(out, 1), tf.argmax(y,1)) accuracy = tf.reduce_mean(tf.cast(correct, tf.float32)) #初期化 init = tf.global_variables_initializer() #実行 with tf.Session() as sess: sess.run(init) #テストデータをロード test_images = mnist.test.images test_labels = mnist.test.labels for n in range(20): Epoc = n+1 print('Epoc %d' % Epoc) for i in range(10000): step = i + 1 train_images, train_labels = mnist.train.next_batch(100) sess.run(train_step, feed_dict={x:train_images, y:train_labels}) if step % 1000 == 0: acc_val = sess.run(accuracy, feed_dict={x:test_images, y:test_labels}) print('Step %d: accuracy = %.2f' % (step, acc_val))