如何看待華為 4 月 25 日發布的盤古智慧型大模型?在這個行業處於什麼水平?

時間 2021-06-09 04:50:07

1樓:望空

只有乙個字才能概括,大!

至於什麼訓練方式多難多難,什麼什麼的都不是重點,只能說是技術和工程部分,打個比方,奇蝦長那麼大,甚至還是海洋霸主(寒武紀的),肯定有什麼特別之處,長成這樣肯定也很有技術含量,但是奇蝦卻在進化中沒有了顯著突破,最終進入了死胡同最終滅絕,這個和目前nlp領域差不多,無論是之前通過GPT2大放異彩的OPENAI 還是現在的華為,都在朝著大而前進,給了龐大的訓練資料進行訓練,訓練出的模型已經具有各種功能性,但是本質還是那樣,不過華為的和openai存在架構差異,指不定可以走的更遠,也可能更近,這個是目前nlp領域遇到的問題,可能也不是問題,目前看來這麼大就能實現這樣的功能,以後搞個更大的又更強,未來技術革新一步步小下來也不是不可以...雖然代價可能接近推倒重來。

引數多,千億級,訓練語料大,TB級,但是感覺和gpt3一樣,都是朝著大發展,但是關鍵突破卻還木得,不過國內終於有乙個能跟上的,還是值得讚揚的。

如果基礎這段時間依舊沒什麼突破,那麼下乙個模型必然也是大,大,大,在進化中,這算是乙個死胡同,如何繞開這個死胡同,這個是世界人工智慧行業都要面臨的乙個挑戰。

2樓:牧武

作為乙個非常業餘的吃瓜群眾~

我只是想問一下,為什麼ppt上看起來那麼nb,但小藝還是那麼製杖?

難道是我廣東人的口音問題?

3樓:唐先生

嗯,這個標題的確有點太那個啥,說不定就因為標題黨誇張等嫌疑而被和諧或被迫改正。不過呢,看了這次華為官宣推出的盤古人工智慧,的確給人有點驚豔的感覺。在這次HDC華為開發者大會上,那個讓我們大家都很熟悉的余大嘴再次宣布乙個很重磅的世界第一:

華為雲盤古大模型。這個驚人的千億級的引數規模,已經逼近人類神經元的數量了。

話說,華為怎麼這麼喜歡當第一呢,說中國第一倒也罷了,居然還自豪官宣世界第一。這個重磅的世界第一AI,是業界首個千億級生成與理解中文NLP大模型,是業界最大的CV大模型。你沒看錯,它並不僅僅侷限於人工智慧的某乙個單獨的領域比如自然語言處理NLP,而是海納百川,集AI多個熱門方向於一身的全能型人工智慧。

這個頗有開天闢地的中國傳統文化元素的盤古AI大模型,包含自然語言處理(NLP)大模型、計算機視覺(CV)大模型、多模態大模型、科學計算大模型。據機智客了解,華為雲盤古NLP大模型:是業界首個千億引數中文語言預訓練模型,預訓練階段學習了40TB中文文字資料,是最接近人類中文理解能力的AI大模型。

具體而言,盤古NLP大模型在權威的中文語言理解評測基準CLUE榜單中,總成績及分類、閱讀理解單項均排名第一,重新整理三項榜單世界歷史紀錄,總成績得分83.046。

而其中的華為雲盤古CV大模型,則是目前業界最大的視覺預訓練模型,包含超過30億引數。而它的「肌肉力量」呢?則是在ImageNet 1%、10%資料集上的小樣本分類精度上,達到了業界最高水平。

當然,大,並不是華為盤古AI大模型唯一的特色,還有讓開發者能感同身受體會到優勢的開發模式呢。它的開發模式,是「預訓練+下游微調」,這也是與目前全球主流大模型(如Bert)所匹配的一種模式。也就是說,在泛化能力(這是機器學習領域最基本的概念)上說一數二。

另外,對於困擾開發者的樣本規模問題,華為盤古AI大模型還能做到在少量樣本的情況達到高精度,在這方面超越了GPT系列。

瞧瞧,已在超越GPT系列了。雖然這裡我們不能橫向簡單對比盤古AI和GPT-3,畢竟GPT-3已經公開並有多次演示和應用了,不過在規模、泛化能力、樣本少的問題等方面,盤古AI大模型有著顯著的優勢。再者說,盤古AI大模型不僅適用於推理、訓練場景,還能夠實現「端邊雲協同」。

這就意味著不必在不同的終端,再去開發不同的運算元,大大提高了效率。就問你厲害不厲害吧。

4樓:某某人走了

這可能觸及到噴子的盲區了,怎麼沒看到噴子來刷:牢廠、996、愛國警告等。

對於這個模型,不懂呀,聽大佬分析,以及等落地專案成果。

會不會讓手機語音助手以及華為智慧型音箱系列能夠更準確的理解日常的指令。

5樓:

AI 1.0改幾行python的時代已經成為歷史。

AI 2.0 以openai為首的信仰派終於站在了浪潮之巔,很幸運huawei能夠跟進這樣的工作,這也證明了huawei做自己TPU的戰略眼光。

做ai的小夥伴要注意了,如果你不懂計算機,只會改python,那麼你真的會失業。

6樓:

先匿,給一些客觀的評價

1 這個量級的模型足以說明華為的AI並行訓練系統國際前列。技術儲備雄厚

2 由於訓練的是GPT這種auto regressive 模型,而不是mask language model模型,所以對做NLP的人來講,難度降低了很多很多。如果訓過大模型,你會發現,大的MLM出NaN以及diverge的機率高的多得多,而GPT這樣的模型倒還好。不過雖然這麼說,能訓練成功這個量級的模型,也非常了不起。

3 沒刷過clue不好評價,但感覺比第二名高的有限,尤其考慮到模型大小差這麼多,感覺不是太令人驚喜

4 這玩意能給商業化多大幫助就那麼一聽就行了。第一比第二高了百分之一,然後第二模型還小一百倍。這到底誰對業務真正有用?

7樓:cobot

很符合華為的做事風格:AI演算法效果不好?棒子加粗直接橫掃。

余承東運氣不錯,剛來cloud BU大殺器也準備好了。模型不開源,實測結果出來之前暫不做評價。

先說說幾個影響:

演算法,算力,資料,是AI產業的三大要素。現在整個行業已經進入AI2.0時代,此前的1.

0時代主要比拼演算法,比如AI四小龍各種打榜,跑分,PR搞得不亦樂乎。但是在2.0時代,算力可能是競爭力關鍵所在。

自從GPT-3出來後山呼海嘯的宣傳中,國內幾家大公司都在大模型賽道上開始較勁。以後AI2.0時代大概率是巨頭們的競技場。幾千塊卡並行訓練不是小公司玩得起的。

AI服務會走向集中化,壟斷化。什麼蒸餾,剪枝,one-shot learning,這些奇技淫巧都不如大資料+大算力=大力出奇蹟來得直接有效。這也是巨頭們樂見的,可以強化他們的競爭優勢。

大模型目前的商業模式還有待探索。強如openAI貌似也沒有找到合適的盈利點,做了一段時間的公測和吹比活動就結束了。比普通模型高出幾個數量級的成本帶來的只是幾個百分點的精度提高是否具有費效比,目前還是個問號。

當然行業還在發展中,前期可以不用太關注優化和成本問題。

最後,大模型裡的安全和隱私問題更加難以釐清,之前GPT-3直接吐出使用者賬號密碼的事情要怎麼避免,仍然是需要關注的事情。

先說這些,以後再更。

8樓:雪聖寺7童

華為雲盤古大模型:業界首個千億級生成與理解中文NLP大模型、業界最大的CV大模型,華為還將持續推出多模態和科學計算大模型。

盤古大模型具備極強的泛化能力,乙個模型適用大量複雜行業場景,少量樣本也能達到高精度;基於預訓練+下游微調的工業化AI開發模式,讓全球領先的AI真正進入千行百業。

華為雲盤古NLP大模型在中文語言理解測評中,在總榜、分類榜、閱讀理解榜獲得三項第一,大幅重新整理業界紀錄。

如何看待華為 2020 年 4 月 8 日發布的 AR 地圖 華為河圖?

木本不羽 一句話,河圖是未來 華為在下一盤大棋,全場景布局,未來一定包括智慧型眼鏡想象一下以後手錶 眼鏡 手機聯動,走在路上遇到所有的事情都可以在虛擬端清楚展現出來 華為在一如既往地為未來投資 北桎 不知道有沒有看過刀劍神域劇場版動畫的 我覺得裡面的場景三十年之內會以河圖的方式實現刀劍神域中AR渲染...

如何評價華為在 4 月 23 日發布的華為 Watch GT 2e?有什麼亮點和槽點?

藍色精靈 買了gt 2e綠色那款,佩戴兩天,說下感受 外觀 對比了公尺color 佳明venu,發現還是2e好看,顏值真的高 舒適度 很舒服,金屬外殼質感也很好,特別是按鍵處的處理,很高階,錶帶與很多手錶不同,這種錶帶的安裝方式會使整個手錶與手腕更貼合,這點比gt2好 功能性 該有的東西都有,運動種...

如何看待華為5月23日發布的Matebook D E X?

刺秦00 1.matebook d的記憶體上面有焊死的遮蔽罩,自己換記憶體基本是沒指望了 2.純固態版的sata的硬碟線是定製的,就是說沒法買純固態自己加機械硬碟 3.顯示卡降頻降的厲害,超57度會降頻到400.4.cpu功耗25w.但實際全程7 13之間,很保守5.固態硬碟雖然是m.2口但是走的是...