我們來回顧一下 SVM 模型。
繼續閱讀從前面的 kernel SVM 當中我們已經獲得了很強大的模型,可是他還是會有不足之處,像是當資料有雜訊的時候就容易將每個資料點都個別分開。
有時候我們反而希望模型在面對雜訊上不要那麼敏感,或是不要把每個資料點都分對,這時候怎麼辦呢?
繼續閱讀注意:整篇文章極度數學高能!!
沒有把前一篇文章看完的朋友別擔心,我們會在開頭先回顧一下。在一番數學技巧的替換過後,我們的 maximum-margin classifier 會被化成一個最佳化問題。這個最佳化問題可以用二次規劃(quadratic programming, QP)來解。
繼續閱讀上次我們完成了感知器的介紹,感知器也有他相對應的學習演算法:perceptron learning algorithm (PLA)。
不過我們今天沒有要講 PLA,我們來講講感知器的缺點。
感知器這個模型有很多的缺點,但是因為他是最簡單的模型,我們就放他一馬(?)。
繼續閱讀感知器(perceptron)是在 1957 年就被發明出來的的模型,對電腦的發展或是人工智慧來說都是非常早期的。
感知器模型他是一個二元分類的分類器,他解的是分類問題。相對我們前面的線性迴歸解的是迴歸問題,兩者在問題的定義上有根本性的不一樣,那他們兩個有什麼關聯性呢?
繼續閱讀