機器學習領域回歸和分類問題能否互相轉化?

時間 2021-05-12 00:57:22

1樓:鬼蕨

回歸和分類問題是可以相互轉化的,理由如下:

首先,回歸問題和分類問題本質上都是要讓機器學習的模型擬合乙個目標函式。

對於回歸問題而言,這個目標函式是 ,其中 和 是輸入和輸出的維數。

對於分類問題而言,這個目標函式是 ,其中 是輸入的維數, 是分類標籤的集合。

但是 它也是乙個集合呀!

因此我們可以將回歸問題轉化成分類問題:設乙個誤差精度 ,將 分割成若干個邊長為 的單位正方形/正方體/超立方體區域,如果函式值落入這個區域內則視為屬於這個類別,這樣就將回歸問題轉化成了分類問題。(當然,處於邊界處的元素難免落入錯誤的分類,因此loss看起來會不那麼漂亮。

)同樣地,我們也可以將分類問題轉化成回歸問題:設有 個分類,對於每乙個輸入,我們可以給出它分別屬於每乙個分類的概率(或者可信度、歸屬度) 。快看,這些概率可全都是實數值呀!

那整個目標函式的值域就是 了!這樣就將分類問題轉化成了回歸問題。

所以這豈止是可以互相轉化,可以毫不誇張地說,這兩類問題它就是等價的!誒嘿!

2樓:Jack Stark

這取決於類與類之間的關係。

如果類別之間有遞增的關係,比如體重的「較輕」、「合適」、「超重」,「較輕」和「超重」之間的類間差距大於「較輕」和「合適」之間的類間差距。這種問題最好用回歸的方法,因為使用分類的話對類別的onehot編碼體現不出這種類間差距的區別。

如果類別之間是對稱關係,如「蘋果」、「香蕉」和「士多啤梨」,我們認為它們任意兩類之間的差距應該相同,此時如果用回歸的方法就違背了這個先驗知識(因為用三個實數來表示它們沒法保證兩兩差距相等),所以最好對類別使用onehot編碼當成分類來做。

所有問題都可以歸為 回歸 分類 然後用機器學習來解決嗎

陸葉青 取決於你怎麼定義分類。如果把unsupervised勉強也算成分類?可以這麼說吧?不過機器學習是不是要求必須有label呀?而且就算可以用機器學習解決,但是不等於是最優解? 羅蘋 機器學習可以直接解決的問題包括分類,聚類,回歸,序列標註等。從某個具體任務的目標函式,可以看出其解決的問題是什麼...

對於短文本分類問題,採用機器學習經典模型,那麼輸入的特徵是什麼

只能用文字的向量空間模型,當然這是針對機器學習演算法的意義上來說,當然你非要用詞嵌入技術輸入也沒啥不可以,以上說的是針對邏輯回歸和支援向量機的。對於樸素貝葉斯根本就不涉及文字向量化問題。但是注意,sklearn的貝葉斯的輸入是tf值的文字向量化矩陣,實際模型內部依然統計的是詞語的類別條件似然概率。 ...

使用機器學習處理分類問題時,若訓練樣本比較稀疏,可否向訓練語料中增加人工構造樣本,以提公升模型泛化能力?

戴威 樣本平衡肯定效果會更好 如果不會帶來其他影響可以.比如任意旋轉的話.W和M.好像挺像的 github看到過乙個做這方面操作的比較全的介紹aleju imgaug 張逸萌 可以。這個叫做 data augmentation。看一下 http cs231n.stanford.edu slides ...