我們新的blogger: Avici 昨天試圖要潑這篇文章但沒成功
The term "robust regression" can be used to mean two slightly different things. The first usage should really be called regression with robust standard errors. In regression with robust standard errors the estimates of the regressioncoefficients are the same as in the standard OLS linear regressionbut the estimates of the standard errors are more robust to failure to meet assumptions concerning normality and homogeneity of variance ofthe residuals. The second way the term robust regression is used involves bothrobust estimation of the regression coefficients and the standard errors. This approach is useful in situations where there are large outliersand observations with large leverage values.
如他所說 這裡的robust事實上有兩種意思:
The first usage should really be called regression with robust standard error
就是你跑完回歸要對估計參數做檢定時 你得知道variance-covariance matrix才行
(底下簡稱VC) 在古典OLS 10條假設下 那很簡單 回歸係數的VC就是s^2*inverse(X'X)
問題是...那10條假設 實際上根本不可能有那麼好的情況XD
如果有變異數不齊一(以後簡稱hetero) 或者自我相關(簡稱auto)
那VC就不是那樣子 可是問題是 沒有人知道真正的hetero 和auto的形式
所以根本沒辦法推導出VC的估計式 此時就只好改用無母數的方法 spectral analysis等
把這些效果考慮進來
第一個做這個問題的就是管老師的老師Halbert White
然後就有所謂VC的估計式robust to conditional hetero
緊接著如果同時有auto加hetero 那又更麻煩了 所以這20年來幾乎所有有名的計量學家都做過這個題目 文獻上稱HAC (hetero-and-auto consistency) VC estimator
所以所謂的robust to hetero-and auto 言下之意就是指
就算有hetero and auto 我的估計依然不受影響
robust一般翻譯做"穩健性"
使用方法很簡單 你一樣是跑個回歸 估計出係數 但是變異數要用HAC就是了
不過這玩意有很多問題低 到現在都還沒完全解決 其實這就是我的碩士論文題目XD
這是個很根本的問題 因為大部分使用的檢定 不是Wald test就是LM test
而這兩者都需要估計VC矩陣 如果連這個都估錯 那所有的推論都是可質疑的
另外robust不是回歸才有 所有統計上的檢定和估計 都有這個問題
就是推導估計檢定的時候 都得作一些假設 有些假設根本和資料特性不合
最經典的莫過於OLS 10條假設...Orz
萬一把這個假設拿掉 我的估計和檢定方式 該怎麼"校正" 才能robust to outlier
這些違反假設條件的資料特性
所以這是很重要的課題 晚近10年 甚至往後的10幾年
把現有的統計通通"robustify"將會是主流研究 也就是把統計推廣到更一般的情況
接著我們來看第二種意義
The second way the term robust regression is used involves both robust estimation of the regression coefficients and the standard errors. This approach is useful in situations where there are large outliers and observations with large leverage values.
一開始研究robust的數學家 就是要看outlier對於回歸係數估計的影響
對於t檢定效率的影響等等
所以一開始robust指的就是 robust to outlier
當然現在robust可以to各式各樣的東西:p
為了搭配你下面一篇 我講一下這幾個的由來 以及為什麼需要這幾個
Median regression,Absolute value regression (L1),
OLS的基本性質 就是minimize sum of square推導出來的
OLS的基本性質 就是minimize sum of square推導出來的
做這件事情 只是一種計算 但如果在隨機的世界 那這個意義就是
你在描繪y的conditional mean, conditional on解釋變數X
所以OLS的基本性質和mean是緊緊相連的
可是mean的基本性質 就是會受極端值影響
解決之道就是 我想找一個也是描述平均性質的統計量 但可不受outlier影響
有哪個統計量具有這種性質 就是median囉
舉例: -1,0,1 -10,0,1 -1000,0,1
這三種不同資料 顯然mean都不一樣 可是median都是一樣
描繪conditional median的估計式就是
min sum(y-a-bx)
所以從這個式子 以及median的特性
才被稱作Median regression,Absolute value regression (L1),
一般其實叫做LAD估計(least absolute deviation)
不過這種估計式的一個特色就是...100% insensitive to outlier
OLS其實是100% sensitive to outlier
所以又有人開發敏感度介於這兩種之間的估計 稱為Huber estimator
R裡面有功能可以求解這種回歸
因為這個不能微分所以頗麻煩 不過可以轉成linear programming的問題來做
當然估計方法換了 VC矩陣也變不一樣了
在這種奇怪的回歸下 VC矩陣到底長什麼樣 該怎麼robustify
都仍在研究當中
Subscribe to:
Post Comments (Atom)
4 comments:
[url=http://www.kamagrashop.pl]viagra[/url], scrutinize up on my site. If you are interested in guardian, perceive [url=http://www.4uescort.de]huren[/url] or [url=http://www.escort4u.pl]ogloszenia towarzyskie[/url]
[url=http://www.freewebs.com/warfarin]coumadin drug interactions
[/url]where to buy warfarin for mice
coumadin 5 mg precio
coumadin pt
warfarin reversal
coumadin xeloda
|
|
|
Excuse for that I interfere … I understand this question. I invite to discussion.
In it something is. I thank for the information, now I will know.
In it something is. Thanks for an explanation.
It agree, it is an excellent idea
It is more than word!
[url=http://www.cntjzx.net/bbs/forum.php?mod=viewthread&tid=292627][b]michael kors outlet[/b][/url]
[url=http://www.enshitour.com.cn/bbs/forum.php?mod=viewthread&tid=258586][b]michael kors outlet[/b][/url]
[url=http://www.bjkxw.net/bbs/forum.php?mod=viewthread&tid=291908][b]michael kors outlet[/b][/url]
[url=http://smooth981fm.net/smoothblog/node/330174][b]michael kors outlet[/b][/url]
[url=http://www.szwqxh.com/bbs/boke.asp?da6d5l33lf.showtopic.100232.html][b]michael kors outlet[/b][/url]
Post a Comment