1樓:
個人覺得機器學習演算法和深度學習演算法各有優劣,人類的智慧型到這個程度應該是兩者的能力都有具備的,有乙個平台實踐比較好,據說有乙個BOT大賽,還可以領取udacity的優惠券,
2樓:「已登出」
同意xgboost,簡單快捷。我猜直接套演算法能提高到85%,也就幾個小時就能出結果。要用deeplearning時間就久了
3樓:徐夫人的夫人
樓主的資料特徵維數並不高,所以完全沒有必要用DL複雜的訓練方法處理這些資料。如果對自己提取到的資料特徵有足夠信心的話,xgboost或random forest, LR這樣的方法應該是綽綽有餘了。事實上,DL更多用於處理影象、語音等特徵冗餘度大的訊號,通過自學習方式得到層級組合特徵最終用於分類或識別任務。
4樓:
講道理, 影象用神經網路好是因為影象的特徵本來就不好抽。
至於說什麼爆隨機森林的, 14維特徵怎麼爆,你給我爆爆看? 與其說用神經網路,還不如多做特徵工程,畢竟你就是上了分類器,badcase也是要干預的,在這點上,普通分類器可控的多。
當然,我水平不行,還是按照大神說的多用log loss 的mlp吧。
友情提示一下,某些大神提到的神經網路技術二十年前就有,為什麼還是那麼多人用隨機森林和邏輯回歸, 可能因為大家都菜逼吧。
5樓:Tlon
Tensor Flow也好,Theano也好,更像是整合了多種學習演算法的包,和你用的RF不是乙個東西。。至於模型的選擇,要看具體問題和場景。分類效果的好壞,不僅僅在於模型,還有資料預處理和特徵工程。
能夠用於解決二分類問題的模型有很多,除了RF之外,效果好又廣泛使用的還有LR和GBDT(各大競賽必備),或者多種模型進行ensemble,不一定非要上深度學習模型。
6樓:理查德帕克
深度學習目前而言在影象,語音,自然語言這類資料的分類問題上有較大突破,在通常型別的資料上似乎沒有出現飛躍性的提公升,往往容易過擬合,在我看來,一般型別資料的話隨機森林或者boosting往往更好,這類演算法允許直接對離散的類別型資料做決策,而深度學習首先需要對離散特徵做處理,可以說forest或者boosting更普適,但是如果特徵做的好,我相信應該神經網路應該不會差的。
7樓:
樓上說mlp爆掉random forest的,不知道為啥對mlp這麼有信心…
其實樓主對機器學習並不是很熟悉,而神經網路的設計恰好需要經驗和大量除錯。我覺得現在最靠譜的事情就是試一下陳天奇大神的xgboost,上手快,效果好。比調mlp靠譜多了。。。
我是DL粉,但我覺得DL並不是萬能的。
8樓:dashenswen
為何不試下svm 首先緯度很小算起來比較快,其次svm做binary classification準確率比較高(multiclass的分類方法有自身問題),而且可以嘗試不同的核計算
現在有現成的包可以使用,直接呼叫就能看出效果好壞了
9樓:陽陽
一般而言,維度低小資料量用普通機器學習方法更好。用深度學習很容易過擬合。
分類問題,最主要的問題不是分類器選哪個,雖然好的分類器可以提公升效果。更重要的是特徵提取,深度學習成功之處在於它可以自動學習需要的特徵。
10樓:
脫離具體問題,空泛的談論「什麼學習演算法更好」毫無意義。
學習演算法自身的歸納偏好與問題是否相配,往往會起到決定性的作用—— 周志華《機器學習》
如果沒人做過與題主問題相關的工作,那只有跑個分看看才知道效果了啊
學深度學習有沒必要把傳統機器學習演算法原理都學一遍?
沒有必要。推薦使用deep learning for computer vision with python,一本書完成從入門到精通。即使少量地方需要ml的知識,臨時補都可以。各個學科有交叉的時候,只需要補充交叉部分,多了的不要去管,快速達成目標最重要。即使就業導向,需要補ml以應對面試,那也與dl...
新型桌遊相比較傳統的麻將撲克幼稚嘛?
感覺和幼稚與否是無關的問題。越具象的遊戲記憶規則越繁雜,變化越少 越抽象的遊戲越容易上手,變化越多。工作後沒時間上手更具象的遊戲 更具象的遊戲玩多了也更容易膩。所以大概年紀越大大概會越傾向去玩更抽象的遊戲吧。 楊喆 他們之所以能把麻將和撲克打到三四十歲,因為他們來錢。你要他們打綠色麻將,五分鐘就不耐...
傳統機器學習如svm和深度學習的根本區別是什麼?
AI落地工程師 機器學習有感知機 統計學習 神經網路等方向,其中深度學習屬於神經網路分支。傳統機器學習方法,比如SVM,一般需要人工設計訓練所需的特徵,當然深度學習網路的featuremap也可以作為SVM的訓練特徵。深度學習主要靠深層神經網路來自動學習特徵,然後採用傳統機器學習進行分類,或者其他分...