深度學習需要解決一個高維且非凸優化之問題,解決這些問題的難點在於,他可能具有多個好的解(local minimum),導致學習演算法(神經網路/loss)難以收斂到一個全域最佳值(global minimum)

這種問題在隨機優化領域(stochastic optimization)中,被稱為優化演算法的收斂問題(problems with the convergence of the optimization algorithm on a solution),而需要被收斂的解,在演算法中為一組權重(weight values),深度學習也屬於隨機優化領域,因此也面臨此問題,其權重通常以.h5檔案格式儲存

觀察神經網路訓練時每一個 epoch 的 loss,若不斷震盪,且平均來說不下降,則表示無法收斂 

文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

img=cv2.imread('3.jpg')
rows,cols,channels=img.shape

KR 發表在 痞客邦 留言(0) 人氣()

灰度化

直方圖均衡化

文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

img = cv2.imread('./3.jpg') 

img = cv2.GaussianBlur(img,(5,5), 1) # smooth image

文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

方法一

image

KR 發表在 痞客邦 留言(0) 人氣()

image

發生錯誤:

KR 發表在 痞客邦 留言(0) 人氣()

image


文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

應該是batch size=1為sgd

一次epoch作loss和,更新一次權重

KR 發表在 痞客邦 留言(0) 人氣()

<以下是我個人經驗,可能有誤>

我們都知道tensorflow是以計算突來當作整體變數架構

KR 發表在 痞客邦 留言(0) 人氣()

python是以main.py(包含__name__的檔案)作為搜索路徑之root

也就是說再main.py運行時,會加入搜索範圍的路徑皆以main.py所在之資料夾做為root

KR 發表在 痞客邦 留言(0) 人氣()