tensorflow還有存在的理由嘛?

時間 2021-05-29 23:43:31

1樓:TowardsDeeplearning

在手機端tf和pytorch部署在CPU側難度可能由於onnx存在,難度差不多。

但是在很多廠商比如高通DSP,GPU等等硬體涉及的量化加速部署,對tf支援的程度很高,pytorch就算了。

tf 和這些硬體廠商的合作很緊密,就憑這一點,tf還不能存在嗎?等pytorch追上來再說吧

2樓:人工智慧技術乾貨

這個問題真的是來拉仇恨啊,肯定會招致TF boys的一致反對了!

目前TensorFlow借助google生態依然在全球知名深度學習框架中名列前茅,TensorFlow自然有其獨到之處,它也在不斷的成長並吸收其他優秀深度學習框架的長處,比如Tensorflow 2.x就一改如常,預設動態圖構造網路,預設使用keras API,架構也相對穩定一些,還是受到大家的認可的!

只能說,存在即合理吧,不以排名先後論英雄,適合我們的才是最好的!

3樓:誰知竹西路

已舉報問題。

無論是tfboys反串黑還是pytorcher踩tf,都不是什麼光彩的行為。

用autograd的框架還用出優越感了,有本事自己手擼梯度和cuda啊~

4樓:雞湯狗

這個問題,反正我一直用的tensor flow,周圍的人也用,暫時沒有找到不用的理由。

在1.0版本開發還是挺麻煩的,現在2.0,用了keras,可以快速實現模型,終於可以專心煉丹了。

5樓:XF.zh

畢竟作為谷歌公司的核心競爭力,可以不用但不能沒有!我們會覺得做不如買,買不如租。但是西方人的思想可能就是租不如買,買不如做。

6樓:夜星辰

這問題純粹是黑子提的吧,tf和torch我都用過,我非常清楚tf的好用,尤其是到了tensorflow2.x版本,tf易用性絕對是不比其他框架差的。

而且就我觀察torch和tf的寫法上很多地方都是相似的,兩者都是互相吸收對方的優點逐漸成長的。當然問題也是有的,不過誰敢說哪個框架就沒一點坑?

所以說真的,真沒必要黑,你看看周圍大佬,哪個不是都懂,大家根據需要選擇適合自己的就行了。

7樓:Wu-Allin

目前工程化的東西還在用 1.14 左右的版本咯, TensorFlow 2.0以上的版本也在與時俱進,有谷歌的站台,應該有它存在的完整生態吧。

Tensorflow 的reduce sum 函式到底是什麼意思,誰能解釋下?

群星吾之歸宿 我自己的方法是數括號的層級 不過寫tf的話,大概最多axis到3就夠了,空間想象能力差真的傷不起 a 1,2 3 4 3,4 5,6 shape是 2,1,2,2 算形狀 axis是多少那麼reduce sum之後的形狀就是把shape對應的index去掉。比如axis 2,把shap...

Tensorflow 是如何求導的?

durow 一般來說複雜的運算最後都能寫成加減乘除指數對數等基礎運算的復合函式,也就是乙個單向的計算圖。然後只需要寫出這些基礎運算的導函式,運用鏈式法則,像剝洋蔥一樣一層一層求導。這種是反向求導,據我所知是用的比較多的。不過有些複雜的運算自動微分開銷大,這時候框架一般都會提供基於公式推導的快速計算的...

自在存在 自為存在 自在自為還有為他的存在是什麼意思?

lanxia5755 自在存在 Ansich sein 自為存在 F rsichsein 還有為他存在 Sein f r anderes 這幾個概念在黑格爾 小邏輯 中都出現在 定在 Dasein 這一章節中。這裡要注意這幾個概念中都包含了Sein 存在,也是繫詞 定在 Dasein 這個概念是從S...