如何評價 TensorFlow 2 0 版本,是否是 Google 再一次力挽狂瀾?

時間 2021-05-06 02:07:25

1樓:

不能。看到tensorflow這個變化,就跟之前的angularjs一樣。

寫的框架是給不是做這個工作的人用的,angular像是給後端用的。

tensorflow,則像是給c++使用者寫的。

反過來看,facebook,react就是給前端用的,pytorch就是給python深度學習使用者的

2樓:caixiong

個人覺得, 大力改eager模式還不如花精力把api文件寫好點 .保持執行快的優勢再補一下文件不好麼?為啥一定要改成動態圖呢?

3樓:Yan

其實我個人覺得TF 1.0才是最好用的版本。Pytorch也好KERAS也好,封裝的太過了,非常不利於底層操作,以至於讓我懷疑我的模型是不是真的如我所設計的那樣。

另外,PYTORCH在魔改RNN上面還是不給力,看起來優雅但執行效率低。當做乙個新的高效的recurrent 結構的時候,得把很多封裝好的東西先拆開再組合,真心覺得不方便。

4樓:有品位的小老闆

當年比爾蓋茨創造出的一系列讓使用者進行傻瓜操作的產品使他成為了首富,當年王者榮耀團隊跌入低谷決定把技能機制變得簡單使他們魚躍龍門,賺的盆滿缽滿。做產品設計如果想賺錢就一定要考慮使用者消費者啊,而TensorFlow 1.0的確有點麻煩繁瑣門檻高,使用者漸漸流失也是必然的。

現在TensorFlow 2.0逐漸向keras和pytorch靠近,在便利性和操作性都做了功夫,再加上本來龐大的社群團體,一定會更加具備競爭力的。

5樓:feng yang

感覺keras就是tf裡的乙個敗筆,外部的開源專案,裡面引入的issue好多。

與其花人力在keras上,還不如做好靜態圖的優化,讓速度快,占用的視訊記憶體少。

6樓:土豆變成泥

tensorflow2.0 只會讓更多人逃離。

當你看到那些tf.compact.v1,tf.compact.v2時候,你會覺著,這api沒誰了。

尾大難掉,2.0的妥協,還不如1.x的堅守。

靜態圖時候我一直堅守,現在搞得這麼混亂,我先逃為敬。

7樓:東雲研究所的貓

從tf混雜的API看來這是進步,希望tf以後能統一旗下亂七八糟的(keras,layers,contrib)API和doc

從工業界應用看來,這真的是開歷史倒車

8樓:薑餅

tensorflow 2.0充分結合了靜態圖和動態圖的優勢,既有靈活性又有速度,也可以作為企業的生產工具,與pytorch相比有更廣闊的應用前景並且語法也更加簡練

9樓:SARNOVICE

還2.0呢!就今天,剛才,我特喵的想用個1.

13.1配置深度學習環境。在Windows裡從下午三點半搞到晚上十點半沒配好!

一會兒這兒錯了,一會兒那兒缺東西了,一會兒版本對不上了,一會兒閃退了……別跟我提tensorflow現在,聽見沒!管你幾點幾,半個小時裝不好就是辣雞!正在氣頭上,憋讓我瞅見這幾個字我給你說!

再給我推薦,我把知乎給你卸了你信不。

10樓:saltedfish

好好做靜態圖不好麼,我就比較習慣於靜態圖思維方式,先定義函式,然後求梯度;反而覺得pytorch那種方式有點怪。現在已經改的面目全非了,靜態圖都不知道怎麼用了!

11樓:方思勰

現在keras的專案遷移到tensorflow太方便了,只要import tensorflow.keras as keras就行了

12樓:

為了加強日漸下降的深度學習領域的話語權 + 讓更多人買自己的TPU

致命一擊是不可能有的,pytorch (後台facebook)這幾年比tensorflow發展好多了。

13樓:Justin ho

到今天還有那麼多人來爭論哪個框架好,小孩才做選擇題,我全都要。

畢竟,大部分人都是面向開源專案程式設計,開源專案用什麼,他就用什麼了。

14樓:

pytorch黨,向 tf 2.0 大佬低頭,誰叫我工作了呢。。。o(╥﹏╥)o

tf 就像生活一樣苦,可最後你還是不得不適應它。。。

15樓:mast

為什麼大公司用 tf?因為tf用的早。部署方便只不過是一方面的原因。

我認為tf2.0的出現,對tf1.x來說,是一件大好事。終於有乙個相對stable的版本了

16樓:「已登出」

感覺知乎上,只要有關tensorflow的,幾乎都是無窮無盡的吐槽,很少有人能說出tensorflow的優點的,本人小白,什麼都不懂,我只想問一句,為什麼那麼多大公司用tensorflow?

目前從知乎上可以得出結論:深度學習框架能用的好用的其實只有乙個,那就是pytorch,,,,,,,

感覺知乎這個平台有點奇怪了,基本上乙個高讚答案,會決定了乙個問題看法的大致走向。有道理大家都贊同感覺沒錯,但是在知乎上,並不是這種感覺,而是感覺知乎上的問題只有乙個答案,就是高讚的,其它基本上都是附和高讚答案的。總感覺知乎上,乙個問題的高讚,能影響其它所有相關問題以及延伸問題,比如,tf在知乎上普遍遭受差評,,,。

就感覺現在知乎嚴重缺少槓精,,,,,,,,雖說槓精在平時挺煩的,但是知乎上沒有槓精,讓人很難受,至少是你總感覺一直在吃同一道菜,,,

槓精們都去哪了?,,,,,

來出來槓一波,,,

PS:不知道這個跟知乎雞肋的推薦演算法有沒有關係!!!!!!!(說個笑話:

前段時間好像看到說知乎打算用go來重寫推薦演算法,,,,,說不上,過幾天又用c來重寫一下,,,從來沒有任何改進,,,感覺知乎可以去教演算法與資料結構了,所有學生都可以學,因為同乙個演算法,有所有語言的實現,開箱即用,改改就能及格)

17樓:勒布朗詹姆斯哈登

講個笑話:tensorflow沒了tensor也沒了flow,竟然說自己是2.0版本。

keras原本只是tensorflow的小弟,結果後來不但反噬了tensorflow,還變成了tensorflow。

18樓:落落大方的發卡

TensorFlow2.0好呀,非常棒的deeplearning framework,可以看出來谷歌爸爸是用心在做的,所以我選擇pytorch

19樓:舊信封

很多人吹pytorch我倒是不反感,易用易懂動態圖都是優勢,但是我是忠實keras使用者,我一直覺得keras非常優雅,其實熟悉原始碼會發現keras也能靈活擴充套件,當然速度最為詬病但是開發快啊……反正噴tf2.0也好別帶上keras,我們學生競賽黨的利器好嗎

20樓:mileistone

深度學習框架是乙個很大的市場,使用者需求五花八門,不可能由某乙個產品完全壟斷。就像手機市場一樣,我們很難想象整個市場上只有乙個手機品牌,以國內手機市場為例,華為mate主打商務,oppo主打拍照,vivo iqoo主打遊戲體驗,小公尺主打價效比等等。

tf起步早,又有谷歌的主推和支援,一度在深度學習框架市場裡一家獨大,讓大家產生了tf就應該壟斷深度學習市場的想法。乙個大的市場,百家爭鳴才是健康的,整個市場可以更好地發展,使用者也可以得到更多利益。

tf設計之初的目標人群是工業界,解決了很多實際部署模型的痛點,側重點在inference;pytorch設計之初的目標人群是科研界,簡單易用,足夠傻瓜,側重點在training。二者目標人群明確,最後也的確成為了各自目標市場裡的王者。

因為吐槽tf的人很多,導致大家覺得tf逐漸在衰落,其實tf在工業界還是很堅挺的,就是因為用的人多,吐槽才多,你看paddlepaddle有人吐槽嗎?

另外tf被吐槽的點主要是在模型訓練方面,這方面本來就不是tf的絕對側重點,被吐槽很正常,就像華為mate被人吐槽價效比不高一樣。

現在tf在補易用性上的短板,pytorch在補工業部署上的短板,二者開始將手伸到對方的地盤。但只要二者不犯糊塗,工業上,tf仍然會佔據優勢,科研上pytorch依然執牛耳。

21樓:

不是。PyTorch在易用性上尤其是研究人員魔改的便捷性上是有目共睹的。TF2雖然強調易用性,但仍然是以方便工程人員這一TF的基本盤為主,而不是AI researchers這種深度魔改玩家。

我個人的觀點,TF2幾乎難以動搖PyTorch的基本盤,更多地還是從如何讓TF變得更好來出發,而不是去PyTorch口中奪食。而且二者本身也沒必要搞成你死我活的關係,不同的公司和專案總會有不同的優先順序和風格。

在AI/DL專案走出實驗室走向落地的大背景下,AI領域的玩家會不侷限於實驗室和技術初創公司。雖然研究人員和學生佔主導的社群黑TF已經快成政治正確了(雖然這一點也理所當然)。但TF目前也用不著「力挽狂瀾」。

AI infra只有TF一家獨大的那段日子本來就是病態的,各有所長各佔生態位才是現實。

22樓:遊凱超

一開始時,TensorFlow不願意只屈尊做乙個python package, 它的目標是成為一門新的程式語言。

然後你看,在TensorFlow上面又可以搭建若干平台:tensorlayer,sonnet......

所以,你需要先學習tensorflow 語言,然後再學習若干package。大概就是這個樣子。甚至連 if, while都有對應的 tf.

if 和 tf.while

TF2.0終於願意本分地當乙個python package了。

可是你看那些TF1.x寫的專案,哪個敢公升級到TF2.0?

TF2.0就像乙個全新的deep learning framework,只不過TF的title讓大家覺得它有好幾年了。

你在簡歷裡寫自己熟悉TF,估計也還得寫清楚熟悉的是哪個版本吧......

ECCV2018有個Google的展台,我去跟他們說,我現在怕TensorFlow了。我入坑的時候tensorflow還是1.0, 然後現在已經完全轉成pytorch黨,TensorFlow發展真是神速,現在已經1.

11了,然而我已經再也看不懂TensorFlow了。看守展台的人跟我說:「我也這樣覺得誒。」

如何看待王垠對 tensorflow 的評價?

歐陽 其實優化速度並不是什麼難題,體力活而已。現在tensorflow那班人在忙著改進分布式那塊呢,之後肯定會繼續優化單機。現在吐槽tensorflow 的人,以後肯定會被翻出來吐槽的。歷史總是驚人的相似。 見賢 嗯.他其實只是想引出這句話?MS的老大快看看,還不給我公升principal Goog...

tensorflow中的seq2seq例子為什麼需要bucket?

使用不同數量和尺度的buckets會有不同的結果,並不是buckets越多越好,也不是越少越好,1 就像前面所說其實pad是會加入噪音的 2 和問題本身可能也有一定的聯絡,把相似的問題合理的聚類,會取得很好地結果,反過來,如果不合理的聚類運算,可能帶來的就是差的結果,這個怎麼看也像是碰運氣 劉濤 使...

Tensorflow 是如何求導的?

durow 一般來說複雜的運算最後都能寫成加減乘除指數對數等基礎運算的復合函式,也就是乙個單向的計算圖。然後只需要寫出這些基礎運算的導函式,運用鏈式法則,像剝洋蔥一樣一層一層求導。這種是反向求導,據我所知是用的比較多的。不過有些複雜的運算自動微分開銷大,這時候框架一般都會提供基於公式推導的快速計算的...