close
'''
為了克服python基本運算緩慢的問題 
(因為 tensorflow 使用 GPU、多工 例:A+BTF算比C)
tensorflow 採用預先建構完整的運算式
再一起進行運算的方式
'''

import tensorflow as tf



# none 為任意數目,784 為每個樣本所含總pixelplaceholder 為預先空出喂資料的空間
x = tf.placeholder(tf.float32, [None, 784])  # input (mnist images)

# variable 在計算過程中可更改
W = tf.Variable(tf.zeros[784, 10])  # weight 10表示樣本各pixel在類別1~10的分別機率
b = tf.Variable(tf.zeros[10])  # bias
# softmax 在最後輸出前,整理神經網路結果(wx+b),使結果都介於 0~1 且相加為1
y = tf.nn.softmax(tf.matmul(x, W)+b)


# 訓練
# Loss(/Cost) 為目前訓練模型與實際模型的差,用來判斷模型好壞
# 使用 cross-entropy 來決定 loss function
y_ = tf.placeholder(tf.float32, [None, 10])  # 實際答案
cross_entropy = tf.reduce_mean()
'''
為了克服python基本運算緩慢的問題 
(因為 tensorflow 使用 GPU、多工 例:A+B用TF算比C慢)
tensorflow 採用預先建構完整的運算式
再一起進行運算的方式
'''

import tensorflow as tf



# none 為任意數目,784 為每個樣本所含總pixel,placeholder 為預先空出喂資料的空間
x = tf.placeholder(tf.float32, [None, 784])  # input (mnist images)

# variable 在計算過程中可更改
W = tf.Variable(tf.zeros[784, 10])  # weight ,10表示樣本各pixel在類別1~10的分別機率
b = tf.Variable(tf.zeros[10])  # bias
# softmax 在最後輸出前,整理神經網路結果(wx+b),使結果都介於 0~1 且相加為1
y = tf.nn.softmax(tf.matmul(x, W)+b)


# 訓練
# Loss(/Cost) 為目前訓練模型與實際模型的差,用來判斷模型好壞
# 使用 cross-entropy 來決定 loss function
y_ = tf.placeholder(tf.float32, [None, 10])  # 實際答案
cross_entropy = tf.reduce_mean()












arrow
arrow
    全站熱搜

    KR 發表在 痞客邦 留言(0) 人氣()