為什麼說線性回歸的實質就是求條件期望函式?

時間 2021-05-09 01:17:08

1樓:picoii

我的未必理解準確哈,但是今天剛好看到了,當以最小MSE(y對f(x))為擬合標準的時候,我們去找乙個f(x)去擬合yx,然後證明得到的最優結果就是f(x)等於CEF的情況,也就是條件分布函式E(y|x)的時候,這個MSE最小!

有個推導我下次貼個圖!其實就是把y-f(x)拆成y-E(y|x)+E(y|x)-f(x),然後MSE求平方和,互動項期望為0,因此後面f(x)等於CEF的時候最小~

所以呢,這個CEF也就是去做最優回歸的乙個結果~個人理解就是這樣,

2樓:是圓的

這句話有道理,但不嚴謹。

考慮一對隨機變數 。首先假設 loss function 具有 的形式,也就是如果記predictor 為 ,那麼我們需要最小化 。因此,考慮

由 FOC 就可以求出 mean regression function

,即所謂「線性回歸的實質就是求條件期望函式」。

顯然,且只在 時取等,但的具體形式僅當知道 時才能求出,而後者通常是不可觀測的。因此,我們進一步將上式中 限制為線性形式,從而有 best linear predictor ,其中

所以準確地說,線性回歸考慮的不是條件期望函式 ,而是 。

3樓:益者三友

從優化的角度來說,平面一些點(sample),找一條直線f(x)去擬合,minimize直線和sample的距離就好了。當我們用平方距離,就叫least square regression 最小二乘。也可以用其他距離,比如絕對值,就是最小一乘。

從統計的角度來說,首先永遠是定義乙個model,這裡是 y = f(x) + epsilon。解釋來說是,給定乙個x,有乙個random variable epsilon,使得 y = f(x) + epsilon。這個時候還有兩個角度理解。

第乙個簡單一點,一般的統計學也是這麼教的,直接假設E(epsilon|x)=0, 對上式取期望,得到 E(y|x) = f(x) + E(epsilon|x) = f(x)。所以我們要的f(x)就是條件期望。

還有乙個角度,這是乙個定義!我們定義乙個 regression function 等於 y關於x的條件期望。當我們 minimize Generalization Error(用平方距離)。

這個時候,它的解就是regression function。結論就是,最小二乘解就是條件期望。神奇吧哈哈,建議感興趣的統計學生仔細想想,挺有意思。

4樓:

這個需要從測度論的角度先弄清楚什麼是條件期望 ,再從泛函的角度理解:其實是隨機變數Y在X所張成的子空間中的正交投影,即可以表示成X的線性組合。

有了上述理解以後,一切就都清楚了:回歸幹的是一樣的事情。

其實條件期望本身就是隨機變數,是對隨機變數Y的估計。

5樓:

乙個微小的想法:

乙個多元正態隨機向量x(剖分為x1,x2),它的子向量x1關於其餘部分x2的條件期望,就恰好是x1對x2的回歸函式的形式,如果x1是一維就是大家最熟悉的了,另外此時這個回歸的剩餘方差也就是條件方差。

6樓:楊David

因為線性回歸的更一般的寫法就是

y=beta + alpha x + episilowhich is E(y)=beta + alpha E(x),E(y|x)=beta + alpha given x

7樓:葛通

條件期望函式是x與y之間,諸多隨機函式中的一種。

其最重要的特徵是之一在於,當我們用x來估計y時,條件期望函式是「MSE(均方誤差)」最小的函式。至於什麼是MSE,嗯,就是評價估計的乙個幾乎最重要的標準。

優秀的回歸,通常是尋找條件期望函式;最小二乘線性回歸,所求的模型形式,是最優的「條件期望函式」的線性擬合(在這裡,標準仍然是MSE)。

分位數回歸的情形是題主所問問題的反例。

回歸是對資料間關係的描述。對被解釋變數,我們借助回歸的方法,研究了解釋變數對總體均值的影響,解釋變數對總體影響的均值,以及影響的方差等。

8樓:改之理zcw

這句話本身是不嚴謹的。不過我感覺題主的困惑是這和你以前理解的回歸不同。

以前理解的回歸是,我們在x軸和y軸做乙個散點圖,然後找到一條線能夠代表x和y的關係,當然最合適的線就是每個點到線的距離的平方和最小。這也就是最小二乘法。

現在我們換乙個思路,把原來x軸和y軸所在的平面放在桌子上,然後在這個平面垂直插乙個f(y|x)軸,原來的y軸代表了乙個隨機變數y,它的密度函式體現在這個f(y|x)軸上。

現在的問題是,這個y的分布取決於x,那麼y的期望也就取決於x,給定乙個x,就有這個x條件下的y的期望,那麼其實這個期望就會根據x的取值畫一條線,也就是乙個條件期望函式。

這條線其實和以前理解的那條線是一樣的。只不過那條線是這個隨機的y具有不同的確定的實現值,你再通過最小二乘法找到一條擬合的線。

其實你提到的山大陳強老師這本教科書的上乙個版本的封面有一張圖很好的表現了這種關係。

這張圖里的E(Y|x)就是回歸得到的線,也就是y關於x的條件期望

但是最新的書就沒有這個圖了。可惜。

9樓:Chinhogo

這句話是不嚴謹的。(當然不排除題主摘取的context不完整,我沒有看過原書)

條件期望函式(以下簡稱CEF,conditional expectation function)不一定是線性的。準確地說,OLS回歸依概率收斂到Best Linear Predictor。即

當CEF恰好為線性的時候, ,那麼OLS就是 的漸進估計量。此時我們可以說,OLS回歸本質是在求CEF。

技術性的細節在此予以略去。

參考:Bruce Hansen, Econometrics

10樓:

只有在確定目標函式是線性的前提下,對樣本的線性回歸漸近等於對總體的條件期望。否則線性回歸只是對條件期望的線性近似。

如果將自變數X和因變數Y都視為隨機變數,且假設目標函式是線性的。如果將隨機變數的積的期望定義為該向量空間上的內積,那麼對總體的線性回歸就是條件期望E(Y|X)。

記得bruce hansen 那本教科書前面幾章有講CEF的內容,有興趣的話可以去參考一下

11樓:Sunx

xieyao,

一知半解隨便說說,給乙個視角,可能的解釋。

在ols的線性方程中,有一種推導方式是進行多維的投影。根據y對x1投影的殘差,再與x2對x1的投影殘差作回歸,就是兩個殘差再來一次投影。可以推導出來這個結果中兩個殘差的回歸係數與原ols中x2的係數是一致的。

那麼可以理解為x2的係數就是在條件x1之下,x2和y之間的關係。同理可以計算並得出結論,x1前的係數是在x2條件下,y和x1之間的關係。

同一套理論呢,可以看看遺漏變數推導那個東西,也是加入和不加入乙個控制變數對於前邊係數的影響。

數學和統計太弱,再詳細我也難說清楚。但是看過了諸多統計模型,大體感覺也就是條件期望貫穿始終吧。

為什麼說耗散結構是非線性的?

我的理解是,環境的變化是必然的,這種變化引起的波動會衝擊原來的穩態,這種變化讓原來的耗散結構有可能變成了平衡態。已經存在的穩態是線性的,可以理解為,按照原來的思路和設想發展變化和創新。但是,這一切已經是隔靴搔癢了。非線性就是要打破這一切。在遠離平衡態和保持開放系統的情況下,耗散結構會突變成新的耗散結...

為什麼說喜劇的核心就是悲劇?

鼬科海獺屬 喜劇的核心是悲劇 我現在覺得這句話毫無道理即玷汙了喜劇,也輕賤了悲劇。喜劇當然可以以悲情,辛酸,無奈,苦悶各種情緒作為底層的載體。但是喜劇就是喜劇,不要試圖為喜劇找乙個 x劇 的核心,這種核心沖淡了喜劇本身的意義,又強行給他掛上了一層 價值 的標籤。這句話一流行,搞得現在很多喜劇作品喜頭...

在求向量組的極大線性無關組時,為什麼要將向量豎著放,然後對所構成的矩陣進行初等行變換?

天下無難課 補2.本答有點答非所問。不過還是有相關性的。補1 向量在矩陣裡按行排還是按列排不是關鍵,關鍵是初等變換只能對每個向量同時進行,做一樣的處理 對每個向量同維的元素,數乘同樣的數字,做同樣的隔行加運算 而不能單獨對乙個向量做初等變換。這樣,若向量是按列排放的,就只做行的初等變換,若向量是按行...