現今人工智慧,機器學習領域研究的困難主要有哪些?

時間 2021-05-07 02:16:40

1樓:寒亦唱

It's not who has the best algorithms that win. It's who has the most data.

2樓:

我覺得制約機器學習根本原因是很多資訊都沒有量化,或者不規整的量化。

機器學習的根本在於資料本身,而不是高深演算法。

近年來機器學習的快速發展是建立在收集,儲存資料成本快速下降的基礎上的。

如果那天我們把生活中的一切都規整的量化了,資料資訊像空氣一樣普遍,機器可以像人類一樣被訓練了,估計我們理想中的人工智慧就出現了。

3樓:顧笑群

個人比較淺薄的直覺,現在機器學習/人工智慧和真正的人的智慧型比,在於還只是在表面上仿生了一些人的意識、記憶、神經元相互溝通等人的機能,還是沒有和一般的電腦程式區別開來——人指定其資料/計算過程或路徑,讓計算機重複這些。

機器學習/人工智慧和真正的人的智慧型的區別,還在於乙個能拉自己頭髮能讓自己飛起來的關鍵——要在乙個看似封閉自迴圈的的維度裡,而迴圈的動因要在其他維度找。

我說的不嚴謹,只是想把直覺說出來。

4樓:小白菜

feature與語義之間的語義鴻溝,這就好像地基和高樓的關係,feature沒表達好,後面再怎麼搞一堆複雜的模型,效果提公升也是極為有限的,這幾年很火的深度學習也是為了更好的對特徵進行表達。

5樓:

機器學習現今的主要困難是難以正確限制和搜尋複雜的函式空間。

簡單的機器學習演算法,比如線性回歸,線性分類器,只能搜尋簡單的函式空間(比如空間中的所有直線或超平面),且只有簡單的限制(比如l2 regularization)。但是現實生活中,feature的關係大都是非線性的,複雜的。這就需要我們的演算法能優化複雜的目標函式。

近來機器學習的研究大都在朝這個方向努力。例如,深度學習可以搜尋整個布林函式空間(可以學習任何布林函式),但是其訓練複雜度也極大,近來相關的研究(比如卷積神經網路,分布式深度學習)都旨在增加限制條件,充分利用資源,使其可行。

另乙個凸優化的重要研究問題,l1 和 l0 regularization,旨在發明新演算法,搜尋以前不可能搜尋的函式空間(目標函式不可微甚至非凸)。而另乙個熱點概率圖模型則致力於發現或限制feature之間的關係,簡化需要搜尋的函式空間。

在機械人或者人工智慧領域如何選擇研究方向?定位建圖 路徑規劃 感知 協作,哪乙個前景更好,更值得去做?

新域構想 個人看法,感知技術做為研究方向比較務實一些。就好比財務管理,要學習會計記賬一樣,基礎核心不可或缺的東西學會了,才有可能進一步拓展。規劃管理協調都不是乙個學生一開始就能做的,懂些知識就可以。企業進來了也不會先讓你做管理,而是參與專案先學習,弄明白熟悉了流程,專案管理協調自然容易領會。 西洲 ...

人工智慧領域如何學習不斷推出的新模型?

金戈老馬 新模型的推出就像程式語言的類庫一樣,隨著時間的推移將會加速,數量越來越多,而且越來越強大。乙個程式設計老司機不會擔心不斷推出的新類庫,而是按需取用。要做到這一點,老司機必須清楚新類庫背後的工作原理 用途和侷限性等。這個能力是如何煉成的呢?平時在動手實踐的過程中,經常去歸納和演繹,同時加強理...

分不清資料分析 機器學習 深度學習 人工智慧的關係和區別,怎麼辦?

深度學習就是指使用深度神經網路的機器學習。所以,所有深度學習都是機器學習,但是機器學習不一定深度學習,比如SVM這種模型算是機器學習,但不是深度學習。機器學習是實現人工智慧的一種方法。人工智慧其實是乙個很模糊的概念。二十多年前深藍擊敗了人類象棋大師,那個時候的深藍也被叫做人工智慧,但是深藍並沒用到任...