close
''' 為了克服python基本運算緩慢的問題 (因為 tensorflow 使用 GPU、多工 例:A+B用TF算比C慢) tensorflow 採用預先建構完整的運算式 再一起進行運算的方式 ''' import tensorflow as tf # none 為任意數目,784 為每個樣本所含總pixel,placeholder 為預先空出喂資料的空間 x = tf.placeholder(tf.float32, [None, 784]) # input (mnist images) # variable 在計算過程中可更改 W = tf.Variable(tf.zeros[784, 10]) # weight ,10表示樣本各pixel在類別1~10的分別機率 b = tf.Variable(tf.zeros[10]) # bias # softmax 在最後輸出前,整理神經網路結果(wx+b),使結果都介於 0~1 且相加為1 y = tf.nn.softmax(tf.matmul(x, W)+b) # 訓練 # Loss(/Cost) 為目前訓練模型與實際模型的差,用來判斷模型好壞 # 使用 cross-entropy 來決定 loss function y_ = tf.placeholder(tf.float32, [None, 10]) # 實際答案 cross_entropy = tf.reduce_mean()
'''
為了克服python基本運算緩慢的問題
(因為 tensorflow 使用 GPU、多工 例:A+B用TF算比C慢)
tensorflow 採用預先建構完整的運算式
再一起進行運算的方式
'''
import tensorflow as tf
# none 為任意數目,784 為每個樣本所含總pixel,placeholder 為預先空出喂資料的空間
x = tf.placeholder(tf.float32, [None, 784]) # input (mnist images)
# variable 在計算過程中可更改
W = tf.Variable(tf.zeros[784, 10]) # weight ,10表示樣本各pixel在類別1~10的分別機率
b = tf.Variable(tf.zeros[10]) # bias
# softmax 在最後輸出前,整理神經網路結果(wx+b),使結果都介於 0~1 且相加為1
y = tf.nn.softmax(tf.matmul(x, W)+b)
# 訓練
# Loss(/Cost) 為目前訓練模型與實際模型的差,用來判斷模型好壞
# 使用 cross-entropy 來決定 loss function
y_ = tf.placeholder(tf.float32, [None, 10]) # 實際答案
cross_entropy = tf.reduce_mean()
全站熱搜