FPGA為什麼適合做神經網路的計算加速?

時間 2021-05-29 22:59:03

1樓:知否知否

其實用FPGA進行加速是一種折中方案,CPU不合適矩陣運算,GPU挺好,只不過對比FPGA來說,各有優劣勢.專用晶元當然會更好,然後現有神經網路技術並不是很成熟,新模型會被不斷提出並得到改進與發展,即使是專用神經網路晶元,對付各種模型,也很難做到通用。

吐槽一句:在某些人眼裡,什麼東西都是ASIC最合適,畢竟是設計和流片又不要錢!!

2樓:

以下只針對FPGA的神經網路加速:

用FPGA做神經網路加速主要是驗證IP。 驗證成功後去流片。

演算法階段驗證一般是CPU+GPU。 很少有人會用FPGA去做,因為成本太高,價效比太低。

生產上除非產量極小,要求功耗嚴格,需求特殊而無法用現有晶元。 否則也不會考慮FPGA的。

所以本質上說FPGA並不適合做神經網路加速。

3樓:zjulixin

FPGA來做神經網路運算受到關注主要有幾點:

FPGA內部非常適合並行的去做矩陣運算,而神經網路中很多卷積運算本質是矩陣運算。

相對ASIC,FPGA在運算時的能效比還是差很多,但是FPGA可程式設計,可以隨時改變網路結構和演算法,在現在這個演算法更新迭代迅速的時代,FPGA是乙個很不錯的選擇。

神經網路是萬能的嗎?有了神經網路為什麼還要學習其他演算法?

臥聽清風 理解到你說的演算法應該指的是用於影象識別,大資料分析,資料分類等相關的演算法。但演算法的定義遠不止此,比如資料儲存的資料結構設計,排序等,這些基本的方法是提高程式效率的基礎。這些演算法顯然目前深度學習是無法代替的。而對於具體的問題。比如影象識別,資料分類等,神經網路確實以其良好的效果,得到...

神經網路中的label smooth為什麼沒有火?

寶圖2borne 因為簡單,所以好實現,因為好實現,所以能看到效果改變,效果在大部分場景下不提公升,就很難火了。能火還是萬金油類的東西比較容易火 感謝各位大佬的回答 這裡補乙個很簡單的實現,方便大家參考 deflabel smoothing inputs epsilon 0.1 inputs 3d ...

神經網路為什麼有多個輸出?

往事俱沉暮雨瀟瀟 看你是做什麼任務。二分類最後保留乙個輸出就可以了。多分類要保留多個輸出,結果對應沒個類別的概率,方便建模。dnn也是有數學原理在裡面的,不是瞎掰出來的。 走在邊沿上 這個跟 距離 有關。假設你有三個標籤,1 2 3。如果輸出層只有乙個單元 假設輸入是乙個標籤為1的樣本,輸出結果2或...