今天我們來談談 activation function 吧!

先談談線性轉換

談 activation function 之前先要談談線性轉換。

有上到比較後面的線性代數的同學,應該有爬過 SVD 這座高山。

推薦可以看周老師的線代啟示錄 奇異值分解 (SVD)

我們可以知道一個矩陣可以被看成線性轉換,而矩陣這個線性轉換可以被分解成 3 個矩陣:

繼續閱讀

機器學習的技術已經發展了非常久的時間,我們有非常多的模型可以幫我們做預測,包含像是 regression、classification、clustering、semi-supervised learning、reinforcement learning。這些都可以幫助我們去做出預測,或是從資料當中去挖掘知識跟資訊。這些模型需要數學與統計作為基礎。

當你使用這些模型之後你會發現,你輸入的資料會大大的影響整個成效,像是你給的特徵不夠好,模型的表現就變得很糟糕,或是模型要預測的資訊根本不在這些資料當中,那麼模型根本就預測不出來,所以玩過機器學習的人就會知道特徵工程的重要性。

繼續閱讀

我們前面介紹了線性模型跟基本的神經網路模型。

可能有的人會覺得我怎麼不放神經網路的圖,看數學式子看的很痛苦。

是的,我的確沒打算放圖。一來神經網路的圖在各大網站或是 google 上遍地都是我實在沒有必要再放一張,二來因為這個模型的核心根本不是哪些圖,那些圖只是幫助理解,理解之後就都是看數學式了,再回去看圖就太小兒科了。

神經網路的概念在於將多個模型串接起來,也就是前面提到的堆疊的概念。

繼續閱讀

Yueh-Hua Tu

目標是計算生物學家!
Systems Biology, Computational Biology, Machine Learning
Julia Taiwan 發起人


研發替代役研究助理


Taiwan