日本搞逼视频_黄色一级片免费在线观看_色99久久_性明星video另类hd_欧美77_综合在线视频

國內(nèi)最全IT社區(qū)平臺 聯(lián)系我們 | 收藏本站
阿里云優(yōu)惠2
您當前位置:首頁 > php開源 > 綜合技術(shù) > Coursera機器學習-第六周-Advice for Applying Machine Learning

Coursera機器學習-第六周-Advice for Applying Machine Learning

來源:程序員人生   發(fā)布時間:2016-06-06 08:38:24 閱讀次數(shù):4676次

Evaluating a Learning Algorithm


Desciding What to Try Next

先來看1個有正則的線性回歸例子:

這里寫圖片描述

當在預測時,有很大的誤差,該如何處理?

這里寫圖片描述

1.得到更多的訓練樣本
2.選取少許的特點
3.得到更多的特點項
4.加入特點多項式
5.減少正則項系數(shù)λ
6.增加正則項系數(shù)λ

很多人,在遇到預測結(jié)果其實不理想的時候,會憑著感覺在上面的6個方案當選取1個進行,但是常常花費了大量時間卻得不到改進。

因而引入了機器學習診斷,在后面會詳細論述,

這里寫圖片描述


Evaluating a Hypothesis

怎樣用你學過的算法來評估假定函數(shù) ,討論如何避免 過擬合和欠擬合的問題。
對這個簡單的例子,我們可以對假定函數(shù)hθ(x) 進行畫圖 ,然后視察圖形趨勢, 但對特點變量不止1個的這類1般情況 ,還有像有很多特點變量的問題 想要通過畫出假定函數(shù)來進行視察,就會變得很難乃至是不可能實現(xiàn)。因此, 我們需要另外一種方法來評估我們的假定函數(shù) 。

這里寫圖片描述

以下,給出了1種評估假定函數(shù)的標準方法:

這里寫圖片描述

將這些數(shù)據(jù)集分為兩個部份:Training set 和 Test set, 即是 訓練集和測試集,
其中1種典型的分割方法是, 依照7:3的比例 ,將70%的數(shù)據(jù)作為訓練集, 30%的數(shù)據(jù)作為測試集 。

PS:如果數(shù)據(jù)集是有順序的話,那末最好還是隨機取樣。比如說上圖的例子中,如果price或size是按遞增或遞減排列的話,那末就應(yīng)當隨機取樣本,而不是將前70%作為訓練集,后30%作為測試集了。

接下來 這里展現(xiàn)了1種典型的方法,你可以依照這些步驟訓練和測試你的學習算法 比如線性回歸算法 。首先 ,你需要對訓練集進行學習得到參數(shù)θ, 具體來說就是最小化訓練誤差J(θ) ,這里的J(θ) 是使用那70%數(shù)據(jù) 來定義得到的,也就是僅僅是訓練數(shù)據(jù) 。接下來,你要計算出測試誤差,用Jtest(θ)來表示測試誤差, 那末你要做的就是 取出你之前從訓練集(Training set)中學習得到的參數(shù)θ放在這里, 來計算你的測試誤差 Jtest(θ)

這里寫圖片描述

Jtest(θ)分為Linear Regreesion與Logistic Regression:

Linear Regreesion error:
這里寫圖片描述

Logistic Regression error:
這里寫圖片描述


Model Selection and Train/Validation/Test sets

假設(shè)你想要肯定對某組數(shù)據(jù), 最適合的多項式次數(shù)是幾次 ?怎樣選用正確的特點來構(gòu)造學習算法 或假設(shè)你需要正確選擇 學習算法中的正則化參數(shù)λ ,你應(yīng)當怎樣做呢?

Model Selection:
這里寫圖片描述

1.首先,建立d個model 假定(圖中有10個,d表示其id),分別在training set 上求使其training error最小的θ向量,那末得到d個θ

2.然后,對這d個model假定,帶入θ,在cross validation set上計算JCV,即cv set error最小的1個model 作為 hypothesis,以下圖中|J(CV)|在第4組中最小,便取d=4的假定。

PS: 其實d表示dimension,也就是維度,表示該hypothesis的最大polynomial項是d維的。
PS’: 1般地,|J(CV)|是大于等于|J(train)|的,| * |表示數(shù)量

選擇第1個模型(d=1), 然后求訓練誤差的最小值Jtrain(θ(1)) 這樣你就會得到 1個參數(shù)向量θ(1) 然后你再選擇第2個模型(d=2) 2次函數(shù)模型 ,進行一樣的進程 這樣你會得到另外一個參數(shù)向量 θ(2),以此類推,直到第10個模型(d=10),10次函數(shù)模型,訓練誤差最小值Jtrain(θ(10))

接下來,我們需要做的是對所有這些模型,求出測試集誤差(Test Error),順次求出Jtest(θ(1))~Jtest(θ(10))當選取測試集誤差最小的作為多項式模型。

這里寫圖片描述

這里選擇的是5項式。那末問題來了,現(xiàn)在我想知道這個模型能不能很好地推行到新樣本,我們還能通過測試集來驗證1般性嗎?這看起來仿佛有點不公道,由于我們剛才是通過測試集跟假定擬合來得到多項式次數(shù)d這個參數(shù),也就是說我們選擇了1個能夠最好地擬合測試集的參數(shù)d的值,因此,我們的參數(shù)向量θ(5)在擬合測試集時的結(jié)果,極可能致使1個比實際泛化誤差更完善的預測結(jié)果,也就是說泛化能力不足!

所以,為了解決這個問題,在模型選擇中,我們將數(shù)據(jù)集不單單是分為訓練集,測試集,而是分為訓練集,交叉驗證集和測試集{60%,20%,20%}的比例

這里寫圖片描述

1種典型的分割比例是 將60%的數(shù)據(jù)分給訓練集,大約20%的數(shù)據(jù)給交叉驗證集 ,最后20%給測試集。這個比例可以略微調(diào)劑,但這類分法是最典型的。

這里寫圖片描述
依照上面所述的步驟,這里不再贅述! (詳情在上面Model Selection下面有解釋)


Bias vs. Variance

當你運行1個學習算法時 ,如果這個算法的表現(xiàn)不理想, 那末多半是出現(xiàn) 兩種情況 :要末是偏差比較大, 要末是方差比較大, 換句話說, 出現(xiàn)的情況要末是欠擬合, 要末是過擬合問題 。
那末這兩種情況, 哪一個和偏差有關(guān), 哪一個和方差有關(guān), 或是否是和兩個都有關(guān) 。弄清楚這1點非常重要 ,由于能判斷出現(xiàn)的情況, 是這兩種情況中的哪種, 實際上是1個很有效的唆使器, 指引著可以改進算法的 ,最有效的方法和途徑 。

1. bias指hypothesis與正確的hypothesis(如果有的話)的偏差.
2. varience是指各樣本與hypothesis的偏差和


Diagnosing Bias vs. Variance

先來看1個整體概括:
高偏差(欠擬合) —-High bias(underfit)
平衡(正好)—Just right
高方差(過擬合)—-High variance(overfit)
這里寫圖片描述

從下圖,橫軸表示多項式的次數(shù)d,縱軸表示誤差error,我們可以看出,當d很小時,也就是處于underfit狀態(tài)時,Jtrain(θ)JCV(θ)差不多大小,隨著d增大,JCV 生活不易,碼農(nóng)辛苦
如果您覺得本網(wǎng)站對您的學習有所幫助,可以手機掃描二維碼進行捐贈
程序員人生

------分隔線----------------------------
分享到:
------分隔線----------------------------
關(guān)閉
程序員人生
主站蜘蛛池模板: 午夜国产精品视频 | 久久久久玖玖 | 国产九九精品 | 亚洲第一区国产精品 | 亚洲精品乱码久久久久久按摩观 | 亚洲欧洲日产v特级毛片 | 欧美一级xxx | 亚洲成人福利在线 | 午夜成人免费视频 | 国产精品九九 | 91精品国产91久久综合桃花 | 欧美福利网站 | 嫩草在线看| 国产区在线 | 国产在线观看一区二区三区 | 希岛爱理和黑人中文字幕系列 | 一级黄色在线看 | 精品成人网 | 视频一区二区三区在线观看 | 自拍偷拍福利视频 | 久久精品日韩 | 亚洲精品久 | 国产精品岛国久久久久久 | 久久久久综合网 | 久久久高清| 婷婷成人激情 | 亚洲精品乱码久久久久v最新版 | 91精品国产综合久久香蕉最新版 | 欧美不卡一区二区三区 | 成年人在线看片 | 成人在线观看视频网站 | 热99在线观看| 国产精品久久久久久久久久免费看 | 国产精品久久久久久亚洲调教 | 亚洲一区二区三区在线视频 | 久久久久久精 | 日本特黄a级高清免费大片 韩国精品久久久 | 成人性生交大片免费观看嘿嘿视频 | 麻豆精品视频 | 亚洲一区二区久久久 | 中文字幕二区 |