安裝

KR 發表在 痞客邦 留言(0) 人氣()

Call-by-value

int a= 5;

文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

123


文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

可以看出 採用 np.dot()之時間上比起 之時間上比起 for loop快上不少, 深度學習中需要訓 練的數據量通常相當大 ,因此應該使用向量化來替代 loop計算


文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

損失函數是用來計算與正確答案差多少做下一次梯度降之依據 。

loss/cost function

文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

Broacasting就是一 個很方便的特性,因為在神經網路中需要常進行向 個很方便的特性,因為在神經網路中需要常進行向 量乘以權重加上 bias,若是沒有 Broacasting 此性質,我們就需要另外對 此性質,我們就需要另外對 bias調 整才能進行計算,所以次特性為 coding減輕不少負擔。
當神經網路計算好後輸出為一個類似權重的東西,數值越大 之 element, 代表此 element位置之答案可能性越大,例如一個判斷圖像上數字為 1-10哪一 個數字之神經網路,當輸 出為 [2 6 5 3 4 8 7 1 2 9]時,第十個位置之 element數值 最大,代表數字十有可能是圖像上之而 softmax是把數值轉換為比 例

文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

歸一化默認情況下是對 row每個 elements做平方加總開根號得到 norm之 值,此可用於對向量做減的動作例如輸入資料為 ([0 3 4 ?], [2 5 6 ?]) ,可 以看出資料四缺失,但若要對它做預測的話是填零此項不公平因需要對數據做歸一化, (此處計算 norm有加入以資料總數 有加入以資料總數 )例如第一 row的[0 3 4 ?] 變為 [-1.6 1.4 2.4 ?] ,此時 ? 是作為一個中間值而非 是作為一個中間值而非 0這種極值,對整體 神經網路預測較為公平。
本題中做除法是對於當資料各個特徵值相差過大時,例如 : 預測房屋價錢 之神經網路,若 feature有房屋坪數 (非常大的數值 非常大的數值 )以及房屋氣味 (小數值 ),對於計算可能會造成誤差,因此做歸一化使數 值變種機率而非實體值, 個別 feature數值間大小差異就可以縮小。

文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

神經網路之輸入一回合通常為維 vector,所以會用 reshape將維度改變, shape代表 輸入之維度,使用 shape指令可以得到向量之維度,因此 指令可以得到向量之維度,因此 reshape就是重新改變維度的意思。


文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

首先 因為機器學習之輸入通常一個多維 vector,而非單一數值,所以最好使 用 numpy

在線性的模型中,輸出 y以及輸入 x的關係是一個 二維空間中的 直 線方程式 y = ax+b ,也就是加權值 a以及 bias b之間的關係 。例如 下圖 就是一 種線性模型,如下圖 1為公式

文章標籤

KR 發表在 痞客邦 留言(0) 人氣()

定義: Learning rate中文為學習率, 顧名思義, 代表 學習的效率, 也就是 說,當 α越大 ,學習越快 ,θ計算 一次 cost function斜率 的改變量就越大,反之 亦然。
討論: α的大小是 programming需要考慮的值,α太小會導致 學習速度 (梯度 下降)過慢,甚至影響收斂;α太大可能使的 θ錯過最佳解,無法收斂,甚至發 散,如圖 5。

文章標籤

KR 發表在 痞客邦 留言(0) 人氣()