python from sklearn import estimator2. 加載數(shù)據(jù) 在使用估計器之前,我們需要加載我們的數(shù)據(jù)。scikit-learn庫提供了一些函數(shù)來加載數(shù)據(jù),其中最常用的是load_iris()函數(shù)。這個函數(shù)可以加載鳶尾花數(shù)據(jù)集,代碼如下:
python from sklearn.datasets import load_iris iris = load_iris()3. 劃分?jǐn)?shù)據(jù)集 在使用估計器之前,我們需要將數(shù)據(jù)集劃分為訓(xùn)練集和測試集。這可以通過train_test_split()函數(shù)來實現(xiàn)。這個函數(shù)將數(shù)據(jù)集劃分為訓(xùn)練集和測試集,代碼如下:
python from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.3, random_state=0)4. 創(chuàng)建估計器 現(xiàn)在我們已經(jīng)準(zhǔn)備好開始使用估計器了。在scikit-learn庫中,每個估計器都是一個類。我們需要創(chuàng)建一個類的實例來使用估計器。例如,我們可以使用DecisionTreeClassifier估計器來創(chuàng)建一個決策樹分類器,代碼如下:
python from sklearn.tree import DecisionTreeClassifier clf = DecisionTreeClassifier()5. 訓(xùn)練估計器 現(xiàn)在我們已經(jīng)創(chuàng)建了一個估計器,我們需要將其擬合到訓(xùn)練數(shù)據(jù)上。這可以通過fit()函數(shù)來實現(xiàn),代碼如下:
python clf.fit(X_train, y_train)6. 預(yù)測 現(xiàn)在我們已經(jīng)訓(xùn)練了我們的估計器,我們可以使用它來進(jìn)行預(yù)測。這可以通過predict()函數(shù)來實現(xiàn),代碼如下:
python y_pred = clf.predict(X_test)7. 評估 最后,我們需要評估我們的模型的性能。這可以通過使用一些評估指標(biāo)來實現(xiàn),例如準(zhǔn)確率、精確率、召回率等。在scikit-learn庫中,我們可以使用classification_report()函數(shù)來計算這些指標(biāo),代碼如下:
python from sklearn.metrics import classification_report print(classification_report(y_test, y_pred))在本文中,我們介紹了一些編程技術(shù),幫助您更好地使用估計器。這些技術(shù)包括導(dǎo)入估計器、加載數(shù)據(jù)、劃分?jǐn)?shù)據(jù)集、創(chuàng)建估計器、訓(xùn)練估計器、預(yù)測和評估。希望這篇文章對您有所幫助!
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://m.hztianpu.com/yun/130963.html
摘要:遷移學(xué)習(xí)遷移學(xué)習(xí)就是用別人已經(jīng)訓(xùn)練好的模型,如,等,把它當(dāng)做,幫助我們提取特征??偨Y(jié)通過遷移學(xué)習(xí)我們可以使用較少的數(shù)據(jù)訓(xùn)練出來一個相對不錯的模型,簡化了機(jī)器學(xué)習(xí)編程特別是在分布式環(huán)境下。代碼實現(xiàn)部分參考,在此表示感謝。 遷移學(xué)習(xí) showImg(https://segmentfault.com/img/bVbkwo9?w=638&h=359);遷移學(xué)習(xí)就是用別人已經(jīng)訓(xùn)練好的模型,如:I...
摘要:首發(fā)于接上一篇讓代碼飛起來高性能學(xué)習(xí)筆記一,繼續(xù)整理高性能學(xué)習(xí)筆記。和都只能表示特定的整數(shù)范圍,超過范圍會。通用代碼一般會用,這就有可能導(dǎo)致性能問題。 首發(fā)于 https://magicly.me/hpc-julia-2/ 接上一篇:讓代碼飛起來——高性能 Julia 學(xué)習(xí)筆記(一), 繼續(xù)整理高性能 Julia 學(xué)習(xí)筆記。 數(shù)字 Julia 中 Number 的 size 就跟 C ...
摘要:字符串函數(shù)名,或是可調(diào)用對象,需要其函數(shù)簽名形如如果是,則使用的誤差估計函數(shù)。運(yùn)行后的結(jié)果為每輪迭代運(yùn)行結(jié)果參數(shù)的最佳取值最佳模型得分由輸出結(jié)果可知參數(shù)的最佳取值。提醒一點,這個分?jǐn)?shù)是根據(jù)前面設(shè)置的得分函數(shù)算出來的,即中的。 這一篇博客的內(nèi)容是在上一篇博客Scikit中的特征選擇,XGboost進(jìn)行回歸預(yù)測,模型優(yōu)化的實戰(zhàn)的基礎(chǔ)上進(jìn)行調(diào)參優(yōu)化的,所以在閱讀本篇博客之前,請先移步看一下上...
摘要:字符串函數(shù)名,或是可調(diào)用對象,需要其函數(shù)簽名形如如果是,則使用的誤差估計函數(shù)。運(yùn)行后的結(jié)果為每輪迭代運(yùn)行結(jié)果參數(shù)的最佳取值最佳模型得分由輸出結(jié)果可知參數(shù)的最佳取值。提醒一點,這個分?jǐn)?shù)是根據(jù)前面設(shè)置的得分函數(shù)算出來的,即中的。 這一篇博客的內(nèi)容是在上一篇博客Scikit中的特征選擇,XGboost進(jìn)行回歸預(yù)測,模型優(yōu)化的實戰(zhàn)的基礎(chǔ)上進(jìn)行調(diào)參優(yōu)化的,所以在閱讀本篇博客之前,請先移步看一下上...
閱讀 3566·2023-04-26 02:31
閱讀 3701·2021-11-23 09:51
閱讀 1345·2021-11-17 09:33
閱讀 2507·2021-11-16 11:45
閱讀 2626·2021-10-11 11:12
閱讀 2499·2021-09-22 15:22
閱讀 2795·2021-09-04 16:40
閱讀 2648·2021-07-30 15:30