Deep Learning 深度學習基礎
全書由淺到深,解釋基本 NN 再從案例逐步帶到 CNN 以及 RNN 還要強化式學習,同時搭配 tensor flow 的使用案例,是入門深度學習的好書 Neural network(NN) 有點像神經元,接受端 - 》輸出端,再加入 hidden layer ,去找出每個輸入參數的影響權重,需要考慮的問題時什麼時刻該停止尋找,這取決於每次找尋的 step 間隔以及怎麼知道找到的值是最小值、最大值還是鞍部,當維度升高時,鞍部的判斷會更加複雜,並且也很難以圖示化 CNN 卷積神經網路,把多個參數轉化成深度(取特徵、 filter) ,舉例來說多個橫向的點解讀成橫線,根據特徵把特定長短橫線解讀成眉毛等,以避開當輸入參數加大時,快速增加的算力需求 最大池化( max pooling) 像是打馬賽克,把不至於的細節壓縮 至此,卷積網路價格大致上的模式已形成,一個輸入層、壓縮層(多個)、全連接層(傳統 NN) 、 softmax( 找局部最大小值),其中壓縮層又再細分為卷基層(可多次)跟池化層。 RNN ,遞迴神經網路,像是語言預測可能是長度不定的句子或是篇章,比較適合的方法是把片段解讀出主詞、受詞、介系詞等,再來去預測他的關聯性。這樣做的缺點是無法處理長度較長又互有關聯的句子,如果在每個短句的訓練中,將中間層的結果再回傳給下一個短句的解讀,不停重複就可以考量到句子中的大多數含義( regression) ,因此輸出的結果也就能夠處理長句子。 而 RNN 處理長句子的缺點是每次結果處理後,下一次的處理又是全新的運算,因此長短期記憶單元( LSTM) 則是導入記憶的概念,當下輸出結果後使用的 model ,下次運算還會再次使用並改變內容,概念上 RNN 像是人類處理短期記憶, LSTM 則是考慮進人類的長期記憶(經驗)。 LSTM 的結構大致上分為保留閘、寫入閘、輸出閘 深度強化學習,透過代理者去嘗試不同策略,由訓練者決定什麼樣的狀態是好的或壞的。策略上(如何獎勵),如果使用未來報酬可能導致是訓練成果缺乏壓迫感或時間敏感、折扣未來報酬法則是將未來的權重放低,增加程式的急迫性。 利用已知和探索未知的兩難,當過於重視已知可能會踏入局部最佳解,太過於探索未知則可能訓練效率低落,此時可以使用貪婪策略:代理者每個步驟要做出的選擇,可能會拿推薦或是隨機,再將貪婪策略...