1樓:
《機器學習技法》新開課:https://www.
coursera.org/learn/mach
2樓:
cuixuage/Machine_LearningWhen can Machines Learn?
1.機器學習問題
2.二分類
3.不同的ML型別
4.可行性
hw0: 條件概率 and 貝葉斯公式
hw1: Perceptron and Pocket algorithm實現
Why can Machines Learn?
1.growthFunction,breakPoint
2.ML泛化理論
3.VC維度,邊界
4.雜訊和錯誤估計
hw2:錯誤率 VC bound計算樣本數目N
How can Machines Learn?
1.線性回歸,偽逆矩陣,squaredError
2.邏輯回歸,sidmod函式,crossEntropyError
3.多分類問題,SGD
4.非線性問題的featureTransform
hw3:損失函式,linear/logistic(SGD) algorithm實現
How can Machines Learn Better?
1.過度擬合的危害,避免的方法
2.有約束的regularizer
3.驗證集validation作用
4.小技巧,課程總結
hw4:新增項regularization,驗證集valiadation的實現,計算
How can machines learn by Embedding numerous features
1.線性SVM,推導非條件目標,QP求解
2.對偶SVM,非線性問題消除Z域d+1依賴
3.kernel trick僅在X域計算
4.soft-margin,ξn
5.KLR,two-level-learning模擬Z域邏輯回歸
6.SVR,tube regression
hw1:soft-margin SVM分類,linear,poly,rbf實驗
How can machines learn by Combining predictive features
1.blending,bagging,bootstrap獲取多樣性gt
2.adaboost,懲罰因子Ut
3.decisionTree,impurity衡量
4.randomForest,feature-selection
5.GBDT,residual fitting
hw2:Adaboost-stump 未完成 hw3:cart tree,random forest 未完成
how can machines learn by distilling hidden features?
1.NeuralNetwork,backprop,optimization Tricks
2.DeepLearning,pre-trained autoencoder,denoising
3.RBFnetwork,distance similarity,k-means algorithm
4.linear network,alternating leastSQR
5.feature exaction,optimization,overfitting
hw4:NNet 未完成,k-nearest-means,k-means
Ace's Blog
3樓:餘孔梁
好訊息,基石已經重新開課了,分成了上下兩部分:
機器學習基石上 (Machine Learning Foundations)---Mathematical Foundations | Coursera
機器學習基石下 (Machine Learning Foundations)---Algorithmic Foundations | Coursera
4樓:LucienChen
機器學習技法http://
pan.baidu.com/share/link?shareid=3739036543&uk=190071369機器學習基石
Coursera 上有哪些機器學習的課程推薦?
age 頂頂著名的要數斯坦福Andrew Ng的machine learning,已經有超400個W的人註冊過這個課,並且總體評分很高。其他的話還有兩門,身邊學的比較多。一門是IBM Machine Learning Professional Certificate 另一門是約翰霍普金斯的 Data...
coursera上有哪些值得學習的Python,資料分析的課程?
MonkeyDNaruto 很多人說到了umich的python for everyone,我覺得他另外一門 python3 programming 也很好,內容和前者有一定的相似度,但是也有一些不一樣的地方,但是對於初學者來說是很不錯的,不過我承認,在老師講課的趣味性方面,python for e...
機器學習中的logistic regression的sigmoid函式如何解釋?為啥要用它?
壯哉我賈詡文和 為什麼要對對數機率進行建模?為什麼選用Sigmoid函式作為聯絡函式 link function 壯哉我賈詡文和 Logistic 回歸 對數機率回歸 直觀理解 回頭再補一下。 小周周的爸爸 1.機率服從 1 1 e f x 形式 2.類的條件分布服從指數族分布則 f x 可以表達成...