新聞中心
該分享源于Udacity機(jī)器學(xué)習(xí)進(jìn)階中的一個(gè)mini作業(yè)項(xiàng)目,用于入門非常合適,刨除了繁瑣的部分,保留了最關(guān)鍵、基本的步驟,能夠?qū)C(jī)器學(xué)習(xí)基本流程有一個(gè)最清晰的認(rèn)識(shí)。

創(chuàng)新互聯(lián)專業(yè)為企業(yè)提供元謀網(wǎng)站建設(shè)、元謀做網(wǎng)站、元謀網(wǎng)站設(shè)計(jì)、元謀網(wǎng)站制作等企業(yè)網(wǎng)站建設(shè)、網(wǎng)頁(yè)設(shè)計(jì)與制作、元謀企業(yè)網(wǎng)站模板建站服務(wù),10余年元謀做網(wǎng)站經(jīng)驗(yàn),不只是建網(wǎng)站,更提供有價(jià)值的思路和整體網(wǎng)絡(luò)服務(wù)。
項(xiàng)目描述
利用馬薩諸塞州波士頓郊區(qū)的房屋信息數(shù)據(jù)訓(xùn)練和測(cè)試一個(gè)模型,并對(duì)模型的性能和預(yù)測(cè)能力進(jìn)行測(cè)試;
項(xiàng)目分析
數(shù)據(jù)集字段解釋:
- RM: 住宅平均房間數(shù)量;
- LSTAT: 區(qū)域中被認(rèn)為是低收入階層的比率;
- PTRATIO: 鎮(zhèn)上學(xué)生與教師數(shù)量比例;
- MEDV: 房屋的中值價(jià)格(目標(biāo)特征,即我們要預(yù)測(cè)的值);
其實(shí)現(xiàn)在回過(guò)頭來(lái)看,前三個(gè)特征應(yīng)該都是挖掘后的組合特征,比如RM,通常在原始數(shù)據(jù)中會(huì)分為多個(gè)特征:一樓房間、二樓房間、廚房、臥室個(gè)數(shù)、地下室房間等等,這里應(yīng)該是為了教學(xué)簡(jiǎn)單化了;
MEDV為我們要預(yù)測(cè)的值,屬于回歸問(wèn)題,另外數(shù)據(jù)集不大(不到500個(gè)數(shù)據(jù)點(diǎn)),小數(shù)據(jù)集上的回歸問(wèn)題,現(xiàn)在的我初步考慮會(huì)用SVM,稍后讓我們看看當(dāng)時(shí)的選擇;
Show Time
Step 1 導(dǎo)入數(shù)據(jù)
注意點(diǎn):
- 如果數(shù)據(jù)在多個(gè)csv中(比如很多銷售項(xiàng)目中,銷售數(shù)據(jù)和店鋪數(shù)據(jù)是分開兩個(gè)csv的,類似數(shù)據(jù)庫(kù)的兩張表),這里一般要連接起來(lái);
- 訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)連接起來(lái),這是為了后續(xù)的數(shù)據(jù)處理的一致,否則訓(xùn)練模型時(shí)會(huì)有問(wèn)題(比如用訓(xùn)練數(shù)據(jù)訓(xùn)練的模型,預(yù)測(cè)測(cè)試數(shù)據(jù)時(shí)報(bào)錯(cuò)維度不一致);
- 觀察下數(shù)據(jù)量,數(shù)據(jù)量對(duì)于后續(xù)選擇算法、可視化方法等有比較大的影響,所以一般會(huì)看一下;
- pandas內(nèi)存優(yōu)化,這一點(diǎn)項(xiàng)目中目前沒(méi)有,但是我最近的項(xiàng)目有用到,簡(jiǎn)單說(shuō)一下,通過(guò)對(duì)特征字段的數(shù)據(jù)類型向下轉(zhuǎn)換(比如int64轉(zhuǎn)為int8)降低對(duì)內(nèi)存的使用,這里很重要,數(shù)據(jù)量大時(shí)很容易撐爆個(gè)人電腦的內(nèi)存存儲(chǔ);
上代碼:
- # 載入波士頓房屋的數(shù)據(jù)集
- data = pd.read_csv('housing.csv')
- prices = data['MEDV']
- features = data.drop('MEDV', axis =1)
- # 完成
- print"Boston housing dataset has {} data points with {} variables each.".format(*data.shape)
Step 2 分析數(shù)據(jù)
加載數(shù)據(jù)后,不要直接就急匆匆的上各種處理手段,加各種模型,先慢一點(diǎn),對(duì)數(shù)據(jù)進(jìn)行一個(gè)初步的了解,了解其各個(gè)特征的統(tǒng)計(jì)值、分布情況、與目標(biāo)特征的關(guān)系,最好進(jìn)行可視化,這樣會(huì)看到很多意料之外的東西;
基礎(chǔ)統(tǒng)計(jì)運(yùn)算
統(tǒng)計(jì)運(yùn)算用于了解某個(gè)特征的整體取值情況,它的最大最小值,平均值中位數(shù),百分位數(shù)等等,這些都是最簡(jiǎn)單的對(duì)一個(gè)字段進(jìn)行了解的手段;
上代碼:
- #目標(biāo):計(jì)算價(jià)值的最小值
- minimum_price = np.min(prices)# prices.min
- #目標(biāo):計(jì)算價(jià)值的最大值
- maximum_price = np.max(prices)# prices.max
- #目標(biāo):計(jì)算價(jià)值的平均值
- mean_price = np.mean(prices)# prices.mean
- #目標(biāo):計(jì)算價(jià)值的中值
- median_price = np.median(prices)# prices.median
- #目標(biāo):計(jì)算價(jià)值的標(biāo)準(zhǔn)差
- std_price = np.std(prices)# prices.std
特征觀察
這里主要考慮各個(gè)特征與目標(biāo)之間的關(guān)系,比如是正相關(guān)還是負(fù)相關(guān),通常都是通過(guò)對(duì)業(yè)務(wù)的了解而來(lái)的,這里就延伸出一個(gè)點(diǎn),機(jī)器學(xué)習(xí)項(xiàng)目通常來(lái)說(shuō),對(duì)業(yè)務(wù)越了解,越容易得到好的效果,因?yàn)樗^的特征工程其實(shí)就是理解業(yè)務(wù)、深挖業(yè)務(wù)的過(guò)程;
比如這個(gè)問(wèn)題中的三個(gè)特征:
- RM:房間個(gè)數(shù)明顯應(yīng)該是與房?jī)r(jià)正相關(guān)的;
- LSTAT:低收入比例一定程度上表示著這個(gè)社區(qū)的級(jí)別,因此應(yīng)該是負(fù)相關(guān);
- PTRATIO:學(xué)生/教師比例越高,說(shuō)明教育資源越緊缺,也應(yīng)該是負(fù)相關(guān);
上述這三個(gè)點(diǎn),同樣可以通過(guò)可視化的方式來(lái)驗(yàn)證,事實(shí)上也應(yīng)該去驗(yàn)證而不是只靠主觀猜想,有些情況下,主觀感覺(jué)與客觀事實(shí)是完全相反的,這里要注意;
Step 3 數(shù)據(jù)劃分
為了驗(yàn)證模型的好壞,通常的做法是進(jìn)行cv,即交叉驗(yàn)證,基本思路是將數(shù)據(jù)平均劃分N塊,取其中N-1塊訓(xùn)練,并對(duì)另外1塊做預(yù)測(cè),并比對(duì)預(yù)測(cè)結(jié)果與實(shí)際結(jié)果,這個(gè)過(guò)程反復(fù)N次直到每一塊都作為驗(yàn)證數(shù)據(jù)使用過(guò);
上代碼:
- # 提示:導(dǎo)入train_test_split
- fromsklearn.model_selectionimporttrain_test_split
- X_train, X_test, y_train, y_test = train_test_split(features, prices, test_size=0.2, random_state=RANDOM_STATE)
- printX_train.shape
- printX_test.shape
- printy_train.shape
- printy_test.shape
Step 4 定義評(píng)價(jià)函數(shù)
這里主要是根據(jù)問(wèn)題來(lái)定義,比如分類問(wèn)題用的最多的是準(zhǔn)確率(精確率、召回率也有使用,具體看業(yè)務(wù)場(chǎng)景中更重視什么),回歸問(wèn)題用RMSE(均方誤差)等等,實(shí)際項(xiàng)目中根據(jù)業(yè)務(wù)特點(diǎn)經(jīng)常會(huì)有需要去自定義評(píng)價(jià)函數(shù)的時(shí)候,這里就比較靈活;
Step 5 模型調(diào)優(yōu)
通過(guò)GridSearch對(duì)模型參數(shù)進(jìn)行網(wǎng)格組合搜索最優(yōu),注意這里要考慮數(shù)據(jù)量以及組合后的可能個(gè)數(shù),避免運(yùn)行時(shí)間過(guò)長(zhǎng)哈。
上代碼:
- fromsklearn.model_selectionimportKFold,GridSearchCV
- fromsklearn.treeimportDecisionTreeRegressor
- fromsklearn.metricsimportmake_scorer
- deffit_model(X, y):
- """ 基于輸入數(shù)據(jù) [X,y],利于網(wǎng)格搜索找到最優(yōu)的決策樹模型"""
- cross_validator = KFold
- regressor = DecisionTreeRegressor
- params = {'max_depth':[1,2,3,4,5,6,7,8,9,10]}
- scoring_fnc = make_scorer(performance_metric)
- grid = GridSearchCV(estimator=regressor, param_grid=params, scoring=scoring_fnc, cv=cross_validator)
- # 基于輸入數(shù)據(jù) [X,y],進(jìn)行網(wǎng)格搜索
- grid = grid.fit(X, y)
- # 返回網(wǎng)格搜索后的最優(yōu)模型
- returngrid.best_estimator_
可以看到當(dāng)時(shí)項(xiàng)目中選擇的是決策樹模型,現(xiàn)在看,樹模型在這種小數(shù)據(jù)集上其實(shí)是比較容易過(guò)擬合的,因此可以考慮用SVM代替,你也可以試試哈,我估計(jì)是SVM效果比較好;
學(xué)習(xí)曲線
通過(guò)繪制分析學(xué)習(xí)曲線,可以對(duì)模型當(dāng)前狀態(tài)有一個(gè)基本了解,如下圖:
可以看到,超參數(shù)max_depth為1和3時(shí),明顯訓(xùn)練分?jǐn)?shù)過(guò)低,這說(shuō)明此時(shí)模型有欠擬合的情況,而當(dāng)max_depth為6和10時(shí),明顯訓(xùn)練分?jǐn)?shù)和驗(yàn)證分析差距過(guò)大,說(shuō)明出現(xiàn)了過(guò)擬合,因此我們初步可以猜測(cè),優(yōu)質(zhì)參數(shù)在3和6之間,即4,5中的一個(gè),其他參數(shù)一樣可以通過(guò)學(xué)習(xí)曲線來(lái)進(jìn)行可視化分析,判斷是欠擬合還是過(guò)擬合,再分別進(jìn)行針對(duì)處理;
小結(jié)
通過(guò)以上的幾步,可以非常簡(jiǎn)單、清晰的看到一個(gè)機(jī)器學(xué)習(xí)項(xiàng)目的全流程,其實(shí)再?gòu)?fù)雜的流程也是這些簡(jiǎn)單步驟的一些擴(kuò)展,而更難的往往是對(duì)業(yè)務(wù)的理解,沒(méi)有足夠的理解很難得到好的結(jié)果,體現(xiàn)出來(lái)就是特征工程部分做的好壞,這里就需要各位小伙伴們奮發(fā)圖強(qiáng)了,路漫漫啊。
項(xiàng)目鏈接
- 通篇瀏覽可以通過(guò)nbviewer來(lái)看;
- 項(xiàng)目源文件、數(shù)據(jù)集文件可以通過(guò)GitHub波士頓項(xiàng)目獲取,歡迎Follow、Fork、Star;
分享標(biāo)題:如何用Python預(yù)測(cè)房?jī)r(jià)走勢(shì)?
轉(zhuǎn)載來(lái)源:http://fisionsoft.com.cn/article/cojogoj.html


咨詢
建站咨詢
