深度學習(機器學習)的下一步如何發展?

時間 2021-05-05 22:22:04

1樓:張介宇

個人愚見

從model-centric向data-centric發展強調interpretability robustness復興符號主義(?)

2樓:

我認為下一步是基建

基建包括

演算法基建,視覺化/可解釋基建,偵錯程式/程式設計基建,資料資訊理論基建(encoding)

生態,復現,實驗資料庫基建

然後提公升資料集質量,提公升資料集基建

深度學習框架,統一得太早了,僅僅6年左右

當年的處理器之路,OS核心演化,都沒你演化這麼快大家只改架構,只改那些好改的,不好改的地方,就沒人搞就是不知道誰提出弄得乙個超簡單實現,結果瓶頸在這沒有那樣的乙個基礎底層框架,就並沒有很多自定義選項供研究。

然後甩鍋,你不搞我又搞不了,甩鍋死迴圈

或許我們一直都在逃避這個問題

不是沒有地方做了

是自由度太低

相關問題

深度學習領域有哪些瓶頸?

3樓:星辰大海

經典訊號分析方法是人類智慧型的結晶,不應該被廢棄,應該和深度學習結合起來。

比如,將ResNet、attention model和軟閾值化結合起來,就得到了深度殘差收縮網路。在軟閾值化的加持下,深度殘差收縮網路更適於處理強噪資料。

4樓:find goo

下一步硬體化。

低功耗的AI晶元的未來比CPU,GPU都要火。

現在用GPU訓練太耗電了,位元幣一開始也是用GPU挖礦,後來搞ASIC晶元挖礦,乙個挖礦機算力可比一台超級計算機還厲害。

AI的方向也是這個,晶元化後功耗降低了,隨著晶元降低至10nm以下時,功耗會越來越低。

你看最近發布的華為麒麟970處理器,就是把ai晶元化,使用7nm技術後ai晶元還有很大的發展空間。

英偉達的gpu只能開發時訓練用,聽說某無人駕駛汽車用顯示卡運算開乙個小時需要休息半個小時,因為熱量太大需要靜下來散熱,布置到客戶端成本和功耗很高,肯定不行,也是現在制約AI程式不能普及的原因。如siri需要聯網才能用,如鐵皮房子的車間或電梯中或海上根本沒有訊號,這叫什麼人工智慧?

只有功耗降下來,深度學習才有可能普及,未來有更多的深度學習演算法用於移動網際網路,物聯網。

原始版的Alphago單機版和人下棋要用48塊cpu,8塊gpu,分布式版本用1200塊cpu,176塊gpu,這個需要巨大財力做支撐,一天電費最少(0.2kw*24h=4.8kw*0.

6rmb=2.8元,1376*2.8元)=3852元,一年電費最少=140萬。

後來通過晶元化計算大大減少了成本。

全球位元幣算力從2023年到2023年增長了300億倍,目前還在增長。

位元幣這種直接把晶元算力生成金錢,對晶元算力的發展有很大刺激作用,這些成果對AI晶元有很大帶動作用,如顯示卡算力的巨大提公升可以實現原來不可能的演算法。看來金錢對算力的提公升遠勝諾貝爾獎。

未來隨著AI的普及,AI晶元處理神經網路的能力會不斷提高,似位元幣ASIC晶元一樣,是個超級賺錢行業,算力會有驚人發展。

只要算力足夠強什麼都有可能發生,甚至可能出現AI晶元利用並行能力模擬CPU指令集淘汰CPU的可能(你的程式執行在AI虛擬機器上)。

據區塊鏈資料公司Blockchain確認,目前位元幣網路算力已經達到了52EH/秒(EH=quintillion hashes),這是歷史上位元幣首次突破這一閾值。 52EH是乙個龐大的數字。更直觀地來看,地球上的沙子一共有7E(1*10^18),整個地球的水量約為326E加侖。

位元幣算力的不斷突破預示著這一加密貨幣在今年的快速發展。 Blockchain的資料顯示,僅在過去3個月位元幣算力就增長了60%。上月中旬位元幣算力還只有43EH/秒。

比地球上的沙子還多?位元幣算力再創新高

在深度殘差ResNet50訓練速度,可見硬體競賽的恐怖,但顯示卡是真的買不起。

索尼訓練最快的224秒中使用了 2176 塊 V100顯示卡,總價高達 1300 萬美元。

未來AI硬體肯定會晶元化,只有晶元化才能真正降低成本。

沒有最快,只有更快!富士通74.7秒在ImageNet上訓練完ResNet-50_ITPUB部落格

5樓:軒轅

感覺你關注的不是深度學習下一步如何發展,而是你自己未來往哪個方向發展…如果去工業界,主要工作可能就是調調引數,這樣的話深度學習往哪個方向發展不是你該考慮的問題,你只要緊緊跟著大方向把握該領域熱點就可以了。如果想搞學術,那就關注理論創新,這個是很難的,目前從事這個領域的不算少,但是能在理論層面做研究的就很難了。這個問題很難,我不能給出確切答案,我也確信你不能在這找到滿意的答案,通常都是一家之言吧,如果真的感興趣可以自己研究探索,可能有一天對這個問題你會有自己的答案…

6樓:Defu Li

據了解,目前人工智慧的機器學習方向遭遇到了瓶頸。

首先機器學習其實就是統計學在計算機中的應用,既然是統計學,就需要大資料。我們從大資料中尋找規律,這種方式的準確率是不可能達到100%,並且每天資料都在增多,準確率只能接近相對準確。

還有乙個瓶頸是調參問題。引數的一點點變化,可能會導致模型的成敗。之前川大計算機學院院長在學術匯報中講到,目前的調參很大程度上是有一點運氣成分。

我們人類如何去解決理論上的問題,我認為遠比應用層面重要。應用層面只是理論上乙個體現,就像華為創始人任正非曾講到:目前通訊頻寬快要接近夏農理論的極限了,我們企業不知道下一步該如何以及朝哪個方向發展了。

引人深思。

7樓:微光

據我來看,機器學習的下一部必將和安全掛鉤,比如,機器學習要用到醫療方面,軍事方面,所以必須保證演算法的萬無一失,因此,機器學習更應該追求準確,安全,正如應用到更需要的地方去!

8樓:乎於之求

正好看見類似的問題,大家參考一下大佬們的看法https://www.

9樓:lens

記得深度學習這本書第一頁說,現在深度學習是在實現人能夠做好但不清楚其執行機制的事情,那麼下一步顯然是要去做人也做不好的事情。

當然上面的目標太遙遠,在人能做好的事情裡,其實我們也只能做好一部分,就是人做這個事情本身,而人是如何具備這種能力的,這種機制能否由人工智慧實現,會成為下一步的目標。

另外,很多事情並不是沒有思路,而是計算量不夠,那麼除了硬體突破最好在演算法上也能找到方法,讓零碎的計算資源能整合利用,讓花費計算資源達成的成果能夠通用,我覺得這也是乙個方向。

10樓:

Francois Chollet(Keras 的作者) 的新博文 The future of deep learning。

11樓:薈萃

如果下一步是指接下來的5-10年內,

對無監督學習和強人工智慧不太樂觀,

覺得還是會往人機融合的方向發展,

人和人工智慧各取所長,

人成為人工智慧中的一環,

Human-in-the-Loop

12樓:

當上一次人類進化級別的技術革命——煤鐵工業革命發生時,也有人在困惑於這個命題,

但這個革命改變了整個世界。

這一次人工智慧成為進化級別的技術革命,

該做什麼就去做什麼吧,

把困惑丟在腦後。

13樓:馬索萌

說說我自己的理解,主要是視覺這塊的

1. 幾何資訊的加入。之前深度學習主要都是用在分類、識別這些問題上面。

傳統視覺裡面很重要的跟幾何相關的工作相對來說比較少,比如depth estimation、flow等等。雖然少,但是flownet、posenet等工作也已經出現,接下來必然會有更多工作踏入這些領域。分類、識別問題跟幾何相比起來我個人覺得更虛一點,因為物體的labeling是人定的,很多時候就是個代號,沒什麼內在結構的含義。

幾何資訊不一樣,(至少在物理層面上)是場景和物體實在的結構資訊,還有很多先驗可以使用,必然可以催生很多有趣的網路結構。

2. unsupervised learning3. 跳出back-propagation的新學習模式

14樓:jiaxiaogang

基於記憶能力與理解分析能力的學習;無型別的動態知識;所有知識全部由後天學習;先天為空;參考專案:https://www.

15樓:Yan

1. unsupervised learning. 對於現實世界中大部分資料,仍然還是無標籤為主。

因此乙個好的非監督演算法的價值要遠大於監督演算法。如幾位樓主所說,針對特定問題的非監督學習會是乙個趨勢。針對問題本身設計的演算法,總要好過一些酷炫而通用演算法。

在我的專案經驗中,針對某些實際而又具體資料,BoW+SVM的表現有時候要超過CNN。

2.machine learning + computational neural science. 現下流行的各種神經網路模型如CNN,RNN,LSTM等都是對於大腦的粗略建模。

它們大行其道的原因也是在於在很多問題上work,而非真正實現大腦的功能。在計算神經的領域,科學家們會用動力學的方法深入研究神經訊號的傳遞, 一些衍生出來的演算法比如predictive coding, Hebbian learning什麼的,幾乎沒有在PAMI,IJCV,NIPS,CVPR,ICCV中出現過。這說明計算神經學和機器學習之間還有很高的壁壘。

再舉個例子, 大腦中訊號的傳遞是稀疏而又有深度的;然而 CNN有深度不稀疏,sparse coding稀疏但沒有深度。我個人認為在現有的模型和演算法下,兼顧稀疏和深度是做不到的。如果有,請不吝賜教!

3. neural morphological hardware. 也就是配合演算法的硬體。

現在IBM和Intel已經在搞了,未來不會只是Nvidia天下。另外,我們平時使用的光學元件也並非模擬生物眼的機理。利用一些新型感測器比如Event based camera也是乙個新的趨勢。

這樣的繪畫新人下一步要學習什麼?

1.要。多畫。2.人體。3.馬克筆,最好彩鉛。4.沒有必要,板子更沒有必要。如果你只想聽誇獎的話,大可不必放畫到知乎,多擴幾個空友自己有人吹你的彩虹屁。說得好像太刻薄了,就這樣了。放個表情包好了。 1.畫風是需要探索出來的,現在還不是談論畫風的時候。2.題主如果想將來從事繪畫行業,那麼就學結構。如果...

工作下一步如何走?

年齡30歲就不想太拼啦?年輕人,你想的太天真了。30歲以後的日子只會要求你越來越拼,你不拼試試,生活會給你colour 看的 馮發明 其實我也在面臨這樣的問題,但是我相對堅定一點,首先我覺得我能在程式猿這個道路上走到35歲,那個時候孩子才剛長大,而且做遊戲,雖然說是迭代更新很快,內容很多,其實你積累...

皈依了,下一步應該如何修佛?

修和 皈 是回頭,依 是信靠。皈依就是回心轉意,從信靠世間回頭信靠三寶。皈依也是換心,把假心換成真心 把人心換成佛心,就像醜陋的毛毛蟲化成莊嚴的蝴蝶一樣,去完成這整個蛻變的過程,就叫修行。修行的行,指心行,不論有事無事,從早到晚如秒針般一直走個不停的,是人心,也就是 妄想 佛門常說 放下屠刀,立地成...