線性可分支援向量機 硬間隔 中支援向量的幾點疑問??

時間 2021-06-07 10:44:06

1樓:天哥的歌

岔個題,如果題主只是想深究這個技術問題,前面的回答沒問題。支援向量機在資料量特別小的時候可以用用。但在資料量大的情況,簡單粗暴的batch normalization 加深度神經網路就是利器。

2樓:AndyLee

是,理由和 @mmggqq 提到的相同。「因為是硬間隔,所以支援向量到超平面的距離一定為1。」另外補充一點,李航的《統計學習方法》上,關於線性可分SVM(硬間隔)中,支援向量的定義為:

可使 成立的點

對 的正例點,支援向量在 上

對 的負例點,支援向量在 上

所以,對於線性可分SVM而言,離超平面最近的點一定是支援向量,且距離為1。

2. 是。具體原因參考:LR與SVM的異同 - 止戰 - 部落格園(侵刪)

3. 對於問題1,推廣一下。對於線性SVM(軟間隔),支援向量都落在兩條間隔邊界之間(或間隔邊界到超平面之間),所以問題1的描述就不正確。

如果改成「落在間隔邊界與超平面值之間的點」,則它是「點是支援向量」的充要條件。

3樓:mmggqq

個人看法。問題1.是。因為是硬間隔,其支援向量和超平面距離一定為1。

問題2。是。因為支援向量機的超平面只依賴於部分樣本(支援向量),你把其他樣本去掉並不影響。

SVM支援向量機詳解

是有點委屈的吧 我一直很想要乙個相機,跟爸媽說過很多次了 如今再跟父母提起,母親推拖著,讓我問父親 母親說現在家裡經濟情況不好,讓我再等等 她明明答應我一考完試就給我買的 我有點難過 我跟母親說我不想要了,這絕非賭氣的話 我怕我問父親之後,他會有經濟壓力,然後家裡又會有矛盾母親卻覺得我不懂事,我說這...

支援向量機原理講解(一)

夜宵俠 今天乙個漢字上了微博熱搜,作為乙個奤的姑娘。我要來好好地回答一下這個問題!1.臉大旺夫!口亨!2.小時候每次新聞聯播我都會指著主持人說!快看央視主持人的臉都是那麼大的!大學在主持人隊培訓別人的時候就會跟別人說,臉大好啊,你看要是臉太小還沒有把臉露出來的話台下的人根本看不清你的五官。3.如果臉...

感知機(perceptron)和支援向量機(svm)是一種東西嗎? 如果不是那他們的區別和關係是什麼?

我不是尼克楊 這不是一種東西。首先你要明白svm演算法分為hard margin svm和soft margin svm,perceptron演算法的solver主要是gradient descent梯度下降 類似下山 hard margin svm演算法的solver主要是quadratic pr...