機器學習中特徵提取技術已經被神經網路中的特徵提取淘汰了嗎?

時間 2021-05-06 07:56:34

1樓:

傳統影象處理還有前景嗎? - 膽大路野的回答 - 知乎 https://www.

zhihu.com/question/342035031/answer/1771888184能啟發思路用於dl?

摘抄2. 在深度學習神經網路中需要特徵工程嗎?

理論上是不需要的,基於端到端的特點深度學習神經網路中會在訓練中自行的學習特徵。但是實際情況中往往和理論中是有些不一樣的,在遇到資料量較少和需要減少運算資源的情況下就需要做一下特徵工程。

3. 學術界面對的環境太單一,天天就cifar10,cifar100等等資料集都玩爛了,他們特徵工程就那三板斧,但拿到現實工程中完全不夠。

2樓:東臨碣石

把特徵提取技術融入神經網路中,作為可訓練的步驟,是乙個可行的研究思路。

例如,將非區域性均值演算法融入神經網路,就得到了非區域性神經網路(Non-Local Neural Networks)[1]。

再例如,將軟閾值化融入殘差網路,就得到了適用於強噪資料的殘差收縮網路(Deep Residual Shrinkage Networks)[2]。

適用於強噪資料的殘差收縮網路

3樓:李rumor

還是看場景資料、對可解釋性、速度的要求吧。一般的NLP任務我感覺不太需要了。

前段時間做個任務,看了看資料之後,覺得有的pattern我認為很明顯BERT卻看不出來,於是取了一堆特徵和BERT的分數一起跑xbg,結果BERT的權重佔了0.98。

和我期待的大幅提公升相差甚遠。。 sad

4樓:顧而言他

人工特徵提取意味著對資料和問題有深入的insight理解,來確定具體特徵的形式,是可以解釋和改進的,而神經網路特徵自動提取則更多是暴力計算,不管理由,先看看效果再說,可解釋性和如何改進上都是靠多試煉丹。

當然有時自動提取效果可能還比人工好,但在需要更進一步優化時,仍然需要回到對資料和問題的理解上去,所以特徵工程談不上淘汰,更多是結合神經網路的特徵提取。

5樓:CyberVy

淘汰不了的,因為很多領域根本無法使用深度學習。

這些領域受限於獲取資料的成本和難度等,資料量遠遠達不到使用神經網路訓練模型的要求。

6樓:

基本上淘汰了,反正都是工具,新工具登基,舊工具下位,但特徵工程的思想沒淘汰,神經網路也不止cnn,rnn,看你怎麼設計了,經典特徵提取的思想還是要學的,

7樓:棒棒糖

僅限於視覺領域。

有大量學習資料,是的。

沒有大量學習資料,未必。儘管無監督也有一些進展了,但是對比傳統的運算元,未必更強。

至於其他算力受限,魯棒性要求高(實際上可以劃分到無大量學習資料的情況)等各種工程環境下,算是各有優劣,需要具體分析。

8樓:心愛的小雪橇

我本身是做訊號處理+機器學習的。至少在這方面的應用中,基於訊號處理提取出的時頻域特徵做的分類、識別的準確率是遠高於基於原始訊號的。

神經網路的潛在功能之一可以理解為從高維資料中壓縮提取資訊,並進行進一步處理。而訊號作為一種時序資料,存在大量的雜訊以及冗餘的資訊,並且它的特徵存在時域上的變化以及頻域上的變化,神經網路的計算並不能有效提取出這些最有價值的資訊。很多時候,進行合理有效的訊號處理後資料/特徵中包含的資訊要比乙個複雜的神經網路帶來更好的效果。

如果站在機器學習的角度來看,很多訊號處理手段(降噪,時頻分析等等)都是一種降維並且增強資料的方法。所以從直覺角度理解,將兩者結合在一起往往能帶來更好的效果。

9樓:劉凱

神經網路替代不了人工抽取的特徵,兩者是互補的。

不要過分迷信模型,資料來源的豐富性是至關重要的,不斷融合新的維度特徵,才會引入增量資訊。模型的作用則是以合適的當時將輸入的原始特徵充分運用以提取對目標更大區分度的高階特徵,也就是說模型可以進一步放大原始特徵的區分度。

特徵提取需要的是對場景和目標的深刻理解,模型是對處理特徵的理解。

10樓:

當然沒有。說一下非學術界的不怎麼高大上的真實應用的情況吧。

大量樣本資料的場景下,經典神經網路以及後續稱之為深度學習的一系列網路結構才會收斂得相對魯棒。

但除了網際網路等使用者資料爆表的情況,其他真實場景中其實不容易採集到很多資料(一般幾百上千條),這時候特徵工程還是很有價值的。特別是如果要用到樹模型,特徵過程做得好往往有驚喜。

最後說一點,特徵過程不是minmax 標準化一下那麼簡單。。。

11樓:ly li

我理解的是,傳統的特徵提取也好,神經網路中的向量輸入也好,實際本質上都是一種資料的表達,就是將你研究的物件以向量的形式表示出來,餵給你使用的機器學習模型。這種向量輸入,因為模型的不同,而直觀表現出人類可理解的具有可區分性特徵的程度不同。神經網路的輸入,在影象處理領域,畫素的表達就完全涵蓋全部資訊,對於神經網路模型而言就足夠區分了,所以不需要所謂的特徵提取,但是如果輸入給線性機器學習模型,那麼通過提取對稱性等表達,模型才能夠進行區分,因此也就需要特徵提取。

所以,是否需要特徵提取,完全要看你的應用領域,你擁有的資料,以及你能夠使用的模型。哪怕是用神經網路模型,在某些應用領域,如果能夠找到經過處理的的資料表達方式,使得神經網路模型的輸出區分性更好,那這個資料處理過程就是特徵提取,當然也就是需要特徵提取的

12樓:雙魚理

主流的資料結構,cv nlp speech目前nn已經表現得足夠優越,煉丹練的好,特徵可以丟

對於series graph這幾個資料結構來說,特徵工程依然是利器,信誓旦旦的nn未必是最佳選擇,比較通過特徵提取近幾日或者人工觀測的方式,可以發現好多東東,graph的二階關係或者各種互動特徵一大把。

對於傳統tabular,nn可能不一定適合,屬性都不一致,且列之間的分布差別很大。

除了特徵這種縱向維度外,橫向的樣本數量依然被詬病,樣本那麼少nn會不會靠譜。

13樓:他們叫我小銳

毋庸置疑,神經網路在某些方面超越了機器學習中特徵提取技術,取得了state of art的效能。

但注意,我認為只有某些方面,神經網路有了突破性進展,如當下較熱的CV、NLP等領域,但在其他一些領域,如語音識別、醫療影象等,神經網路還無法完全取代傳統的機器學習特徵提取技術。

舉兩個栗子 ↓

1.在某些場景下,神經網路難建模。

比如語音識別領域中的一維語音訊號,用神經網路很難直接對一維訊號建模。相信大部分做語音的朋友也不會直接將一維訊號扔到網路中做卷積,往往會運用傳統方法提取訊號的特徵,對一維訊號進行變換後送入神經網路。常用的主流方法:

假設語音頻號具有短時平穩性,將語音頻號拆分成每一幀進行特徵提取,通過預加重、分幀、加窗等方法進行預處理,使用短時傅利葉變換STFT提取訊號的頻率特徵,隨後通過Mel濾波器組以及離散余弦變換DCT,最終得到MFCC特徵。上述提取特徵方法適用於大部分語音識別任務,可以看到現階段主流方法仍然離不開傳統的特徵提取技術,神經網路在某些場景下暫時是無法取代傳統方法的。

2.神經網路需要大資料支撐,同時網路本身缺乏一定的可解釋性。

這裡就以醫學影象為例,醫學影象成像條件可以說更加苛刻,成像裝置大多為CT、MR、DR,同時拍攝部位固定,影象差異小,而與之對應的自然影象容易受到拍攝角度、距離、光照、場景等多因素影響,影象和差異大,可以看到醫學影象任務相比於自然影象任務理應更簡單。但現階段神經網路在醫學領域落地更困難,主要原因還是在於醫學影象資料難收集的問題,在資料集規模小的情況下,神經網路很難發揮作用,容易過擬合且不能有效捕捉有用資訊,而傳統的特徵提取技術往往基於人的經驗,設計的特徵在特定場景下更具代表性,效果反而優於深度學習模型。當然還有一層原因是神經網路本身缺乏可解釋性,易出現難以解釋的結果,在醫療這個對演算法精度要求更苛刻的領域是比較忌諱的。

當然,我是還是很相信未來會是神經網路的天下,但是在當下神經網路還有許多問題需要解決,機器學習中的特徵提取技術也還會持續發揮著自己的作用。

14樓:李鵬宇

深度學習時代仍然有必要了解特徵工程的思想和基本方法。

在資料量有限的情況下,知識驅動方法的可行性和成本比資料驅動方法要高一些。知識驅動就是讓領域專家和工程師一起做特徵工程;資料驅動就是讓神經網路從資料中自動做特徵工程。

基於神經網路的資料驅動方法,有幾個不擅長的地方:

(1)資料量很小的時候,無法獲得良好的表示。

(2)如果使用遷移學習的方式訓練,那麼預訓練資料的量要非常大。

(3)模型的可解釋性較低。某個權重特別低是什麼意思,卷積合規嗎?不知道。在法律事務等比較嚴肅的場景中,「不知道」是不可接受的,模型的可解釋性低就是不能用的意思。

(4)神經網路不環保。不開玩笑,神經網路的計算量確實挺大的,費電。

神經網路不擅長的東西還有很多。它解決不了的事情,我們要麼用其他方法解決,要麼把神經網路和其他方法結合起來。

另外,如果我們想學,明白神經網路,一般需要理解「特徵」、「降維」等概念。如果文獻裡基於神經網路來介紹這些概念,我們會會因為模型可解釋性低而矇圈。而畫素點、「最高亮度值」、直方圖這些資訊,我們是能看懂和相信的,可以支援我們進行進一步的思考,比如「最高亮度值和最低亮度值哪個特徵更有用」。

總之,從使用和學習的角度看,我認為傳統的特徵工程方法會繼續存在、繼續幫我們探索星辰大海。

15樓:bdm-su

前提是你得有極其大量的資料,且資料資訊量極好,也就是說滿足這樣要求的場景非常有限。

因此結論是,除了少數領域可以無腦深度,大部分還是要人工特徵工程

補充一點,深度學習還無法解決可解釋的問題,在風控醫療等敏感領域,也無法使用

多層神經網路特徵提取的特徵最後到底是在提取什麼?為什麼說那玩意兒是特徵?

圖資料庫 神經網路特徵提取的特徵最後是在提取降維的向量表達。神經網路就是可以用一些基礎函式無限接近表達乙個分類函式。可以理解他是乙個轉換器。高維進,低維出。 阿亮 首先理解對於每一層來說都進行了乙個線性變化加非線性變換即 Y f WX B 其次 WX的本質其實是乙個線性組合,把WX展開就是w1x1 ...

python中神經網路,機器學習,深度學習,人工智慧的關係?

冰笛 在紙上畫一顆樹,那麼樹冠可以比作是機器學習,其中的一部分枝蔓比作神經網路,這其中的一根比較粗壯的相當於深度學習 整棵樹是人工智慧的乙個剪影,而python則是畫筆和紙。 教員的好學生 python是一門語言,神經網路,機器學習,深度學習是演算法,人工智慧是工程,神經網路是機器學習的一種演算法,...

卷積神經網路中卷積核是如何學習到特徵的?

去太平洋游泳 在深度學習沒出來之前,cv方向早就有了卷積核的概念。卷積核的功能多種多樣,卷積核又叫濾波器。高通濾波器和低通濾波器用的也比較多。實現的功能也不一樣,銳化鈍化,去噪,平滑。不過高通濾波器和低通濾波器卷積核的引數是固定的,提取的特徵也是單一的。後來深度學習出現了,有了自動提取特徵的功能。主...