SVM(支援向量機)屬於神經網路範疇嗎?

時間 2021-05-11 19:46:44

1樓:jljljl

占個坑,最近在複習SVM的時候,對SVM有了新的了解;

先貼張圖:支援向量機(SVM)

這個結構是很明顯的MLP結構,不過只有兩層,是淺層模型,中間隱層就是支援向量神經元層;

SVM本質上其實就是MLP;

(1)SVM隱層神經元個數只要覆蓋支援向量即可;

(2)MLP是通過多個隱層的方法實現非線性函式的,SVM採用的是核函式的技巧來實現非線性函式

(3)MLP目標函式是二次優化,容易收斂到區域性最小值,SVM目標函式是二次規劃(凸優化問題,更容易搜尋到精確解)

2樓:王芊

不是,但是SVM可以被當作有乙個隱含層的模型,隱含層代表的是支援向量,輸出其實就是支援向量的相似度加權,這個經常被用來證明SVM是淺層模型,用來和深度學習對比

3樓:max

The Perceptron does not try to optimize the separation "distance". As long as it finds a hyperplane that separates the two sets, it is good. SVM on the other hand tries to maximize the "support vector", i.

e., the distance between two closest opposite sample points.

The SVM typically tries to use a "kernel function" to project the sample points to high dimension space to make them linearly separable, while the perceptron assumes the sample points are linearly separable.

Difference between a SVM and a perceptron

4樓:阿諾斯瓦哈密瓜

不是.可以認為神經網路與支援向量機都源自於感知機(Perceptron)。感知機是由Rosenblatt發明的線性分類模型(2023年)。感知機對線性分類有效,但現實中的分類問題通常是非線性的。

神經網路與支援向量機(包含核方法)都是非線性分類模型。2023年,Rummelhart與McClelland發明了神經網路的學習演算法Back Propagation。後來,Vapnik等人於2023年提出了支援向量機。

神經網路是多層(通常是三層)的非線性模型,支援向量機利用核技巧把非線性問題轉換成線性問題。

可以說神經網路是通過多個感知器(Perceptron)的組合疊加來解決非線性的分類問題. 而SVM通過核函式檢視非線性的問題的資料集轉變為核空間中乙個線性可分的資料集.

另外, 神經網路非常依賴引數. 比如學習率, 隱含層的結構與節點個數. 引數的好壞會極大影響神經網路的分類效果. 而SVM是基於最大邊緣的思想, 只有少量的引數需要調整.

SVM支援向量機詳解

是有點委屈的吧 我一直很想要乙個相機,跟爸媽說過很多次了 如今再跟父母提起,母親推拖著,讓我問父親 母親說現在家裡經濟情況不好,讓我再等等 她明明答應我一考完試就給我買的 我有點難過 我跟母親說我不想要了,這絕非賭氣的話 我怕我問父親之後,他會有經濟壓力,然後家裡又會有矛盾母親卻覺得我不懂事,我說這...

支援向量機(SVM)是什麼意思?

大家說的比較多的是經典的二分類或者多分類的SVM,我來簡單聊聊單類SVM One Class SVM,或OCSVM 這個演算法的名字第一眼看到會令人匪夷所思,既然SVM是用來做分類問題的,只有乙個類怎麼做分類?其實單類SVM回答了這樣乙個問題 某個點是否屬於這個類?一般來說,是用於做異常檢測 Out...

支援向量機 SVM 是否適合大規模資料?

Faith Shi 這個問題,可以分為兩點 1.支援向量機在大規模資料上是否能取得好的分類效果?2.支援向量機在大規模資料上進行訓練 測試 引數調優等一系列迭代運算的計算效率如否保證?關於第一點,支援向量機的求解通常借助於凸優化技術。針對於小規模資料集,支援向量機更容易抓住資料之間的特徵。如何提高效...