神經網路模型壓縮好就業嗎

時間 2021-05-06 16:04:46

1樓:鳳舞九天

模型最終部署還得靠算力更強的顯示卡,以及不斷得增加顯示卡資料,模型壓縮就是圖一樂。

哈哈,上面開個玩笑。目前各個公司模型壓縮都會用到,包括開源的結構或者自己搞出來的結構,甚至nas。所以說方向沒什麼問題,還是看個人做到什麼程式。

c++大家都知道,多少年了,誰要是說真的精通c++,那真是無敵了。

2樓:鵬飛

目前我已經把BERT與知識蒸餾結合到一起,在具體的業務場景上蒸餾以後的6-8層bert和原版的12層bert效果基本持平,希望和量化技術結合到一起進一步加速,但是不知道該如何進行或者說缺乏乙個場景,請大佬們賜教?我已經在CV的分類任務做到了蒸餾和量化的結合。

3樓:

c9本科,top2碩士,目前在北京網際網路公司工作。碩士課題和模型壓縮緊密相關,可無奈當時找工作對口的組很少,我是2023年的秋招。可能目前博士畢業現在研究的人多了些吧。

4樓:圈圈蟲

我覺得CV方向不太好就業了,模型壓縮無非就三個大方向:剪枝,量化,稀疏。

剪枝:已經被NAS(Neural Architecture Search)取代,現在不是2017的時候,需要壓縮vgg16這種巨無霸網路了,只要有資料從頭訓練乙個小網路更容易。

量化:Int8是及格線,現在開源框架基本上都支援Int8推理,速度的天花板與硬體有關,也在不斷逼近,更多的是優化工程實現。至於精度,Quantization Aware Training的原理就那幾點,後面也是工程實現。

現在等待的就是突然開源一種簡單,高效,可靠的量化大禮包工具一統江湖,結束戰爭。Int4在工業界大概率被跳過而直接上馬二值網路,然而開源框架也有了dabnn。

稀疏:都是唬人的,通用處理器跑起來又沒有加速效果,有何用?

除非你有非常棒的case能推動工業界前進那麼一點點的能力,否則建議不要涉足這個方向。

更新一下,可以嘗試在NLP,3D視覺開拓新領域。總之,當你發現大家都開始做一件事情時,紅海就開始了。

神經網路壓縮 Deep Compression

JJ.蟈 自己買了7120的機芯,網羅了表殼透底和表盤!然後自己繪製了一塊兒,也是第一次自己做表哈哈哈哈哈,感覺終於體會到為什麼有些品牌能賣百萬。對於乙個手殘黨來說真的挺困難的嚶嚶嚶 今天之前都沒有秒針!我今天居然裝上去了哈哈哈哈哈哈好開心! 洪辰 年前剛買了一塊老上海手錶,由於快遞原因才拿過來幾天...

如何評價谷歌新推出的神經網路模型MultiModel?

Abakus 標題黨,封面殺手!神經網路圖林完備早就證明過了,只要網路足夠複雜,可以模擬任何模型 演算法。所以你搞個MultiModel不提時間空間複雜度,就是在耍流氓。 王晉東不在家 多工學習的整合學習版式,感覺是個標題黨,這麼搞下去真的好麼?我個人不看好。從大的角度講這算是個性化模型和統一模型的...

神經網路是萬能的嗎?有了神經網路為什麼還要學習其他演算法?

臥聽清風 理解到你說的演算法應該指的是用於影象識別,大資料分析,資料分類等相關的演算法。但演算法的定義遠不止此,比如資料儲存的資料結構設計,排序等,這些基本的方法是提高程式效率的基礎。這些演算法顯然目前深度學習是無法代替的。而對於具體的問題。比如影象識別,資料分類等,神經網路確實以其良好的效果,得到...