能不能用一句話或者簡潔地凝練深度學習的本質和精髓?

時間 2021-05-29 23:09:13

1樓:

當資料集體量遠大於模型引數數量的時候,近似於擬合Curve Fitting

當模型引數數量遠大於資料集體量的時候,近似於雜湊表Lookup/Hash Table

大力出奇蹟,不管是資料集大還是模型大

2樓:楊先生

從數學上看,就是乙個輸入輸出的計算難題。例如,28x28個輸入,6萬個樣本,乙個或數十個輸出,這個計算問題很困難:輸入、樣本、輸出,怎麼對應?!

深度學習,無非是引入隱蔽層來解決問題,由此引發的問題一發不可收拾。

其實,這個問題已經有解決方法了。

愛因斯坦說:上帝不擲塞骰子。統計理論害人不淺啊!

3樓:

本質 map fitting (surpervised

精髓 deep & comlicated(e.g. sturctures and methods)

另外, 各種trick 使得這個fitting更準確, 在觀測資料上能取得較好效果

4樓:金戈老馬

深度學習模型的本質是:輸入資料和輸出資料之間的非線性函式對映

模型學習的本質是:通過訓練資料擬合模型引數。

n層神經網路等價於數學表示式:

5樓:基光

讓計算機通過執行指令來增強某項技能,相當於本來計算機通常只能執行指令,但深度學習意味著計算機能學習執行很多指令方法。(如震驚圍棋界的阿爾法狗通過自主學習棋譜以及與高手對弈達到圍棋世界頂尖技術,打敗世界著名棋手李世石。)

6樓:

本質(當前深度學習):找出乙個復合複雜函式,用於對某一類輸入分布,找出符合某一期望的最優結果。

精髓:確實就是上面說的統計學習+表示學習

7樓:安迪王

大量的資料、不斷的調參去提取特徵或者找出輸入和輸出之間的對映關係。

郭靖比較笨,背誦九陰神經時,大段的天書字與字之間一點關係也沒有,只能死記硬背,不斷背錯,不斷改錯,一千遍以上,熟悉了,無論提起哪段都可以對答如流,這就是深度學習,聯結主義流派;

歐陽克聰明,背誦九陰真經時,喜歡找字與字之間的規律,可惜毫無規律而言,想用推理的方法背下來,極為困難,這就是邏輯推理,符號主義流派。

8樓:Robin

個人覺得,本質是統計學習,只是不同的任務會使用不同的統計方法;精髓是特徵工程,如何有效的甄別特徵,對特徵進行合理取捨和平衡是關鍵。

9樓:駑馬騏騏

我的這一句話是:讀書破萬卷,下筆如有神。

判定是否能用其實很簡單,人腦的泛化功能是很強的。你不用看萬卷,只看幾卷大概就能知道演算法學習到了什麼。學習到的東西大多是一些統計的線索,然後考慮業務的場景裡有沒有這個量級的資料,能不能用演算法提取到這類特徵。

10樓:王海岩

本質是用乙個函式f(x1,x2...xn)去擬合現有資料集,為了得到更強的泛化能力,進而需要更多的資料,正則化等trick。

11樓:

深度(機器)學習:用既有的資料判斷可能最優(目標)的結果,並根據最新的資料不斷優化公升級。

深度(機器)學習,自然語言處理,影象識別,推薦系統,都使用了大量的資料做演算法基礎,本質上現有的人工智慧都是資料投喂出來的。

其中對資料處理應用非常廣泛的是貝葉斯定理,「已知資訊」推導「未知資訊」,根據「最新資訊」作出調整,這就我們現在看到的深度學習。對我們在現實中做出理性的思考和較優的決策有非常大的作用。

舉個例子:阿爾法(AlphaGo)大戰頂級圍棋高手李世石,最後勝出。

事先阿爾法掌握了大量的資料,這是「已知資訊」,但在對弈的過程中,下一步是不確定的,這是「未知資訊」,好就好在阿爾法已經學會計算走出下一步所有可能贏的概率,並選擇走出那一步對自己最有利的一步,走到下一步的時候,根據「最新資訊」作出調整優化,又走出對自己最有利的那一步。最後勝出李世石是毫無疑問的,根據計算機的計算能力遠不是人類所能及。

現實就很像深度(機器)學習,我們看到永遠只能是部分資訊,但又想做出最優決策,聰明的人就會像機深度學習一樣使用貝葉斯定理。

估摸著自己選擇某乙個決策是最優的概率,並根據現實生活中最新的情況,再重新計算一遍做出調整,直到目標結束。

12樓:luoxw

「深了一切都好說」。

深度學習的本質是線性復合非線性這種模式可以無腦加引數提高引數函式的逼近能力。

說什麼統計學習的都可以省省了。你要是非要用最大似然或者後驗去推乙個loss就當我沒說。當然你可以強行將deep model看成統計裡GLM中的link function的逼近也當我沒說好了。

統計學習care的是利用math和probability對隨機問題做建模這件事,有很多圖模型和貝葉斯模型才是統計學習的精髓,提主問的是本質,那對不起和Statistical Learning關係確實不大。Motivation不一樣。很多machine learning中的loss目前並不能用乙個statistical way內生出來。

甚至深度學習(有監督的的問題,生成問題例如WGAN的Motivation還是有相當強的統計思想的)的motivation本身和統計關係也不大。

至於題主問的如何判斷能否為我所用,我覺得你可以看看你自己的領域的模型和方法,理論上將老的會算梯度的引數模型或者帶引數的演算法都可以用深度做做實驗。

13樓:昏淡

用人腦神經網路擬合人工神經網路,進而代替人腦。

具體的擬合的意思我覺得是通過網路結構的設定和引數的自動學習來模擬人腦學習提取特徵的方式,從而能夠進一步利用這些「特徵」完成任務。所以我覺得與其說深度學習能做什麼,不如說什麼任務的抽象特徵它可以具體的提取並加以利用。

14樓:小廖廖

從不同的角度看有不同的一句話,不一定很嚴謹

1.從優化的角度看,就是迭代求解乙個約束(高維,很可能非凸的)優化問題的數值解。

2.從方程的角度看,就是數值求解乙個給定邊值的,離散化的動力系統(和傳統問題相比,維數可變)

3.從概率的角度看,則可以大致歸結成密度估計問題,比如經典的GAN本質上就是「對稱化」的極大似然估計。

4.從逼近論的角度看,相比傳統的Fourier,樣條等Hand-crafted函式基底,深度學習只不過是在某種距離的定義下,學習一組相對自由的基函式和係數。雖然效果好,但理論上沒那麼嚴謹。

5.從訊號處理的角度,深度學習只不過是一套比較好的encode,decode方法。

15樓:李韶華

一句話就是:統計學習+表示學習。

統計學習假定輸入特徵不變,優化某個loss function。表示學習為更容易做統計學習而變換輸入特徵。

16樓:China 小可

深度學習只能在特定的領域發揮作用,並不是所有的場景上了深度學習效果都會變好。在影象處理、nlp等相關領域深度學習很重要。深度學習的本質其實是一種對映,自動提取深度特徵,一種端到端的學習方法。

說白了,其實就是通過多層非線性變換去擬合出乙個複雜的對映函式而已。

17樓:DeepEmbedding

使用sigmoid做啟用函式的單隱層神經網路有很強的函式逼近能力,詳情請參考通用近似理論。

深度學習就是層數多一點的神經網路,函式擬合能力自然是很強的。深度學習需要大量的訓練資料集,以及大量的顯示卡,沒有錢是玩不起深度學習的,1080Ti算是入門級的了。深度學習在自然語言處理,影象識別,語音識別等領域取得了巨大的成功。

18樓:WuchangI

不是很正式的說,其實目前大火的深度學習就是乙個深層的神經網路(至少目前是),這個網路的hidden layer常用卷積convolution操作來抽取更加高層的特徵。

能不能用一句話打醒追星女孩?

愛豆人品沒問題 少看別人怎麼說,多攢錢,去各國看他的演唱會,體驗不同的國家粉絲的應援氛圍 愛豆人品有問題 趕緊拜拜,下乙個更乖 真的能打醒嗎?我是有點想醒。真的太心累了,但是又捨不得放棄。看見有人黑她我會生氣,然後澄清。可是我今天看劇開彈幕居然還能看到這類的東西 這劇跟她一點關係都沒有啊,心累心累。...

能不能用一句話形容你眼裡的周深(星星 ) ?

已登出 日月星辰和山川河流,北國的風雪和南國的花開,大漠孤煙和小橋流水,白駒過隙和星移斗轉,簡而言之,他的聲音總是能讓我的心寧靜下來,靜靜感受時光的流逝,以及慢慢溢位來的幸福感。 未微 寶藏男孩,有梗又有分寸,上進努力,善良Sunny,以前體會過難過的日子,所以很謙和溫柔,尊敬長輩,然後對熟悉的人 ...

能不能用一句話概括你考研的經歷?

寶地又來了 低階慾望只要放縱就能滿足,而高階慾望的滿足則要通過克制。那些讓你覺得困難的事,才真正能讓你提高。人生而孤獨。盡人事,聽天命。 西北政法考研 看到過一句話 考研就像你從超市拎出來兩大袋子東西,好重,好重,細細的塑膠袋提手勒得兩隻手很疼,很疼,但還好,沒有哪一次是你沒能拎回家的。 李sir ...