www.e4938.cn-老师你下面太紧了拔不出来,99re8这里有精品热视频免费,国产第一视频一区二区三区,青青草国产成人久久

<button id="60qo0"></button>

<strike id="60qo0"></strike>
<del id="60qo0"></del>
<fieldset id="60qo0"><menu id="60qo0"></menu></fieldset>
  • 【知識】正則化與過擬合

    2018-05-14 16:43:56 數(shù)據(jù)科學自媒體  點擊量: 評論 (0)
    過擬合怎么理解?如何解決?正則化怎么理解?如何使用?
    • 過擬合怎么理解?如何解決?
    • 正則化怎么理解?如何使用?

    在機器學習中有時候會出現(xiàn)過擬合為了解決過擬合問題,通常有兩種辦法,第一是減少樣本的特征(即維度),第二就是我們這里要說的“正則化”(又稱為“懲罰”,penalty)。

    從多項式變換和線性回歸說起

    在非線性變換小節(jié)中,我們有討論Q次多項式變換的定義和其包含關(guān)系,這里如果是10次多項式變換,那么系數(shù)的個數(shù)是11個,而2次多項式的系數(shù)個數(shù)是3。從中我們可以看出,所有的2次多項式其實是10次多項式加上一些限制,即w3=w4=...=w10=0。

    基于上面的討論,我們希望能將二次多項式表示成十次多項式再加上一些約束條件,這一步的目的是希望能拓寬一下視野,在推導后面的問題的時候能容易一些。

    這個過程,我們首先要將二次多項式的系數(shù)w拓展到11維空間,加上w3=w4=...=w10=0這個條件得到假設集合H2;然后為了進一步化簡,我們可以將這個條件設置的寬松一點,即任意的8個wi為0,只要其中有三個系數(shù)不為0就行,得到一組新的假設空間H2',但這個問題的求解是一個NP-hard的問題,還需要我們修正一下;最后,我們還需要將這個約束條件進一步修正一下得到假設集合H(C),給系數(shù)的平方的加和指定一個上限,這個假設集合H(C)和H2'是有重合部分的,但不相等。

    最后,我們把H(C)所代表的假設集合稱為正則化的假設集合。

    下圖表示了這個約束條件的變化:

    正則化的回歸問題的矩陣形式

    由上圖所示,我們現(xiàn)在要求解的是在一定約束條件下求解最佳化問題,求解這個問題可以用下面的圖形來描述。

    本來要求解Ein的梯度,相當于在一個橢圓藍色圈中求解梯度為零的點,而下面這個圖表示,系數(shù)w在半徑是根號C的紅色球里面(w需要滿足的約束條件),求解藍色區(qū)域使得梯度最小的點。

    那么,最優(yōu)解發(fā)生在梯度的反方向和w的法向量是平行的,即梯度在限制條件下不能再減小。我們可以用拉格朗日乘數(shù)的方法來求解這個w。

    Ridge Regression

    Ridge Regression是利用線性回歸的矩陣形式來求解方程,得到最佳解。

    Augmented Error

    我們要求解這個梯度加上w等于0的問題,等同于求解最小的Augmented Error,其中wTw這項被稱為regularizer(正則項)。我們通過求解Augmented Error,Eaug(w)來得到回歸的系數(shù)Wreg。這其實就是說,如果沒有正則項的時候(λ=0),我們是求解最小的Ein問題,而現(xiàn)在有了一個正則項(λ>0),那么就是求解最小的Eaug的問題了。

    不同的λ造成的結(jié)果

    從上圖可以看出,當λ=0的時候就會發(fā)生過擬合的問題,當λ很小時(λ=0.0001),結(jié)果很接近理想的情況,如果λ很大(λ=1),會發(fā)生欠擬合的現(xiàn)象。所以加一點正則化(λ很小)就可以做到效果很好。

    正則化和VC理論

    我們要解一個受限的訓練誤差Ein的問題,我們將這個問題簡化成Augmented Error的問題來求解最小的Eaug。

    原始的問題對應的是VC的保證是Eout要比Ein加上復雜度的懲罰項(penalty of complexity)要小。而求解Eaug是間接地做到VC Bound,并沒有真正的限制在H(C)中。

    wTw可以看成是一個假設的復雜度,而VC Bound的Ω(H)代表的是整個假設集合有多么的復雜(或者說有多少種選擇)。

    這兩個問題都好像是計算一個問題的復雜度,我們該怎么聯(lián)系著兩種復雜度的表示方式呢?其理解是,一個單獨的很復雜的多項式可以看做在一類很復雜的假設集合中,所以Eaug可以看做是Eout的一個代理人(proxy),這其實是我們運用一個比原來的Ein更好一點點代理人Eaug來貼近好的Eout。

    一般性的正則項 L1 Regularizer

    L1 Regularizer是用w的一范數(shù)來算,該形式是凸函數(shù),但不是處處可微分的,所以它的最佳化問題會相對難解一些。

    L1 Regularizer的最佳解常常出現(xiàn)在頂點上(頂點上的w只有很少的元素是非零的,所以也被稱為稀疏解sparse solution),這樣在計算過程中會比較快。

    L2 Regularizer

    L2 Regularizer是凸函數(shù),平滑可微分,所以其最佳化問題是好求解的。

    最優(yōu)的λ

    噪聲越多,λ應該越大。由于噪聲是未知的,所以做選擇很重要,我將在下一小節(jié)中繼續(xù)接受有關(guān)參數(shù)λ選擇的問題。

    總結(jié)

    過擬合表現(xiàn)在訓練數(shù)據(jù)上的誤差非常小,而在測試數(shù)據(jù)上誤差反而增大。其原因一般是模型過于復雜,過分得去擬合數(shù)據(jù)的噪聲和異常點。正則化則是對模型參數(shù)添加先驗,使得模型復雜度較小,對于噪聲以及outliers的輸入擾動相對較小。

    正則化符合奧卡姆剃刀原理,在所有可能選擇的模型,能夠很好的解釋已知數(shù)據(jù)并且十分簡單才是最好的模型,也就是應該選擇的模型。從貝葉斯估計的角度看,正則化項對應于模型的先驗概率,可以假設復雜的模型有較小的先驗概率,簡單的模型有較大的先驗概率。

    參考資料

    機器學習中的范數(shù)規(guī)則化之(一)L0、L1與L2范數(shù)

    http://blog.csdn.net/zouxy09/article/details/24971995

    機器學習中的范數(shù)規(guī)則化之(二)核范數(shù)與規(guī)則項參數(shù)選擇

    http://blog.csdn.net/zouxy09/article/details/24972869

    作者Jason Ding

    http://blog.csdn.net/jasonding1354/article/details/44006935#comments

    大云網(wǎng)官方微信售電那點事兒

    責任編輯:售電衡衡

    免責聲明:本文僅代表作者個人觀點,與本站無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。
    我要收藏
    個贊
    ?
    精品无码人妻一区二区免费蜜桃| 无遮挡又黄又爽又色的动态图1000| 亚州AV永久综合在线观看红杏| av区无码字幕中文色| 给我播放个免费的片| 免费A级毛片无码A| 久久精品女人天堂AV免费观看| 免费一级毛片久久久| 99久久99久久精品国产片| 久久久久久亚洲AV无码专区|