- Jun 08 Sat 2019 15:09
virtualenv && flask架網站
- May 24 Fri 2019 16:18
call-by-reference,call-by-address,call-by-address
- Mar 13 Wed 2019 23:22
L1與 L2 Loss function
123
- Mar 13 Wed 2019 23:22
Vectorization
可以看出 採用 np.dot()之時間上比起 之時間上比起 for loop快上不少, 深度學習中需要訓 練的數據量通常相當大 ,因此應該使用向量化來替代 loop計算
- Mar 13 Wed 2019 23:21
Loss function
- Mar 13 Wed 2019 23:20
Broacasting and softmax function
Broacasting就是一 個很方便的特性,因為在神經網路中需要常進行向 個很方便的特性,因為在神經網路中需要常進行向 量乘以權重加上 bias,若是沒有 Broacasting 此性質,我們就需要另外對 此性質,我們就需要另外對 bias調 整才能進行計算,所以次特性為 coding減輕不少負擔。
當神經網路計算好後輸出為一個類似權重的東西,數值越大 之 element, 代表此 element位置之答案可能性越大,例如一個判斷圖像上數字為 1-10哪一 個數字之神經網路,當輸 出為 [2 6 5 3 4 8 7 1 2 9]時,第十個位置之 element數值 最大,代表數字十有可能是圖像上之而 softmax是把數值轉換為比 例
- Mar 13 Wed 2019 23:19
Normalizing rows
歸一化默認情況下是對 row每個 elements做平方加總開根號得到 norm之 值,此可用於對向量做減的動作例如輸入資料為 ([0 3 4 ?], [2 5 6 ?]) ,可 以看出資料四缺失,但若要對它做預測的話是填零此項不公平因需要對數據做歸一化, (此處計算 norm有加入以資料總數 有加入以資料總數 )例如第一 row的[0 3 4 ?] 變為 [-1.6 1.4 2.4 ?] ,此時 ? 是作為一個中間值而非 是作為一個中間值而非 0這種極值,對整體 神經網路預測較為公平。
本題中做除法是對於當資料各個特徵值相差過大時,例如 : 預測房屋價錢 之神經網路,若 feature有房屋坪數 (非常大的數值 非常大的數值 )以及房屋氣味 (小數值 ),對於計算可能會造成誤差,因此做歸一化使數 值變種機率而非實體值, 個別 feature數值間大小差異就可以縮小。
- Mar 13 Wed 2019 23:17
Reshape array
神經網路之輸入一回合通常為維 vector,所以會用 reshape將維度改變, shape代表 輸入之維度,使用 shape指令可以得到向量之維度,因此 指令可以得到向量之維度,因此 reshape就是重新改變維度的意思。
- Mar 13 Wed 2019 23:13
Sigmoid
首先 因為機器學習之輸入通常一個多維 vector,而非單一數值,所以最好使 用 numpy
在線性的模型中,輸出 y以及輸入 x的關係是一個 二維空間中的 直 線方程式 y = ax+b ,也就是加權值 a以及 bias b之間的關係 。例如 下圖 就是一 種線性模型,如下圖 1為公式
- Mar 13 Wed 2019 22:52
Learning rate
定義: Learning rate中文為學習率, 顧名思義, 代表 學習的效率, 也就是 說,當 α越大 ,學習越快 ,θ計算 一次 cost function斜率 的改變量就越大,反之 亦然。
討論: α的大小是 programming需要考慮的值,α太小會導致 學習速度 (梯度 下降)過慢,甚至影響收斂;α太大可能使的 θ錯過最佳解,無法收斂,甚至發 散,如圖 5。