神經網路 Explaining harnessing adversarial example

時間 2021-06-01 12:34:12

1樓:

arxiv.org/abs/1312.6199)提的。

那時候,是覺得問題出在神經網路複雜的非線性現象是adversarial example的成因,而且尋找adversarial example用的是,非線性優化。然而實際上單純softmax也無法倖免,並且簡單的一階求導,也能找到adversarial example。

雖然,可以用epsilon neighbour裡做類似的分析((題主做的)),而且,可以用線性近似+minmax推出(http://arxiv.org/abs/1511.

06385) 應該加的perturbation。然而,實際情況是,雖然adversarial examples 在L2下,肉眼不可分別,但是其大小仍然無法使得區域性線性成為合理的假設。如果讓epsilon neighbour足夠大的話,實際上的derivative bound也會很大,而且,二階項自然更不確定了.

我感覺這些分析,可以算是數學化的直覺分析.......不過我自己分析了下,線性能多大程度上解釋 error。發現線性分析,可以一定程度上推斷出,高斯噪音會引入的error。

不過,那個章節貌似寫地很爛......(在discussion部分,http://arxiv.

org/abs/1511.06385 乙個純廣告,Fig. 4 把找到的perturbation 放大後,其實可以看出,mnist的數字實際上被改變了。

我覺得超級有趣.)

其實,回過頭來想,最奇怪的不是adversarial example存在,而是正常情況下,居然得到的大部分都不是adversarial example。感官上,這應該用concentration of measure來解釋。即便存在幾個方向可以獲得adversarial example。

然而,高維中大部分的球體體積分布在赤道(多有限的幾個方向,不會影響結果。只是需要重新定義赤道。)。

不過,這個解釋貌似,即沒用,也沒太大意思...

CNN(卷積神經網路) RNN(迴圈神經網路) DNN(深度神經網路)的內部網路結構有什麼區別?

可可噠 寫一點個人理解吧。CNN 它是以 層 layer 為單位的,每一層的結構可以完全不一樣。常見的CNN層有卷積層 池化層 softmax層 池化層 這些基礎層之上還有諸如ResNet的遠連線,GoogLeNet的Inception層,用來實現一些特定的功能 深層網路 多尺度特徵提取等 RNN ...

神經網路基礎

圓律師 這裡涉及到三個法律問題 1 約定月息三分,按照最高院關於民間借貸司法解釋的規定,年利率在24 的範圍內利息予以保護,超過24 的部分利息,可以不予以支付 2 從你的描述來看,你本人說的拿房子抵押有可能並非法律意義上的抵押,若用房屋做抵押,需辦理抵押登記,否則抵押不生效。你說的公證過的約定在一...

RBF神經網路和BP神經網路有什麼區別?

DomainAdaptation 1,從模型結構上來看 RBF神經網路從圖形結構上來說,就是一種單隱層的神經網路.這個隱層的每個神經元輸出的是乙個RBF函式的值,這些RBF函式的核寬都是一樣的,它們中心要麼是每個訓練樣本點,要麼是訓練樣本點的聚類中心,當然還可以有其他。核化的支援向量機就可以看成是一...