日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

sklearn API 文档

發布時間:2024/1/17 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 sklearn API 文档 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

所有函數和類的確切API,由docstrings給出。API會為所有功能提供預期類型和允許的功能,以及可用于算法的所有參數。


原文鏈接 :?http://scikit-learn.org/stable/modules/classes.html

譯文鏈接 :?http://cwiki.apachecn.org/pages/viewpage.action?pageId=10030193

貢獻者 :?片刻?ApacheCN?Apache中文網

這是scikit學習的類和函數參考。有關詳細信息,請參閱完整的用戶指南,因為類和功能原始規格可能不足以給出其使用的完整指導。

sklearn.base: Base classes and utility functions(基類和效用函數)

所有估計量的基類。

基礎類

base.BaseEstimatorscikit學習中所有估計的基礎類
base.ClassifierMixin所有分類器的混合類在scikit學習
base.ClusterMixin所有聚類估計器的混合類在scikit學習中
base.RegressorMixin所有回歸估計器的混合類在scikit學習
base.TransformerMixin所有變壓器的混合類在scikit學習

?

函數

base.clone(estimator[,?safe])構造具有相同參數的新估計器

?

sklearn.cluster: Clustering(聚類)

該sklearn.cluster模塊收集流行的無監督聚類算法。

用戶指南:有關詳細信息,請參閱“?集群”部分。

cluster.AffinityPropagation([damping,?...])執行親和度傳播數據聚類
cluster.AgglomerativeClustering([...])集聚聚類
cluster.Birch([threshold,?branching_factor,?...])實現Birch聚類算法
cluster.DBSCAN([eps,?min_samples,?metric,?...])從矢量陣列或距離矩陣執行DBSCAN聚類
cluster.FeatureAgglomeration([n_clusters,?...])聚集特征
cluster.KMeans([n_clusters,?init,?n_init,?...])K均值聚類
cluster.MiniBatchKMeans([n_clusters,?init,?...])小批量K均值聚類
cluster.MeanShift([bandwidth,?seeds,?...])使用平坦內核的平均移位聚類
cluster.SpectralClustering([n_clusters,?...])將聚類應用于對規范化拉普拉斯算子的投影

?

函數

cluster.estimate_bandwidth(X[,?quantile,?...])估計與平均移位算法一起使用的帶寬
cluster.k_means(X,?n_clusters[,?init,?...])K均值聚類算法
cluster.ward_tree(X[,?connectivity,?...])基于特征矩陣的區域聚類
cluster.affinity_propagation(S[,?...])執行親和度傳播數據聚類
cluster.dbscan(X[,?eps,?min_samples,?...])從矢量陣列或距離矩陣執行DBSCAN聚類
cluster.mean_shift(X[,?bandwidth,?seeds,?...])使用平坦的內核執行數據的平均移位聚類
cluster.spectral_clustering(affinity[,?...])將聚類應用于對規范化拉普拉斯算子的投影

?

sklearn.cluster.bicluster: Biclustering(雙聚類)

光譜雙聚類算法。

作者:Kemal Eren許可證:BSD 3條款

用戶指南:有關詳細信息,請參閱Biclustering部分。

SpectralBiclustering([n_clusters,?method,?...])光譜雙聚類(Kluger,2003)
SpectralCoclustering([n_clusters,?...])光譜共聚焦算法(Dhillon,2001)

?

sklearn.covariance: Covariance Estimators(協方差估計)

該sklearn.covariance模塊包括方法和算法,以魯棒地估計給定一組點的特征的協方差。定義為協方差的倒數的精度矩陣也被估計。協方差估計與高斯圖形模型的理論密切相關。

用戶指南:有關詳細信息,請參見協方差估計部分。

covariance.EmpiricalCovariance([...])最大似然協方差估計
covariance.EllipticEnvelope([...])用于檢測高斯分布數據集中異常值的對象
covariance.GraphLasso([alpha,?mode,?tol,?...])具有l1懲罰估計量的稀疏逆協方差估計
covariance.GraphLassoCV([alphas,?...])稀疏逆協方差與交叉驗證的l1罰款的選擇
covariance.LedoitWolf([store_precision,?...])LedoitWolf估計
covariance.MinCovDet([store_precision,?...])最小協方差決定因素(MCD):協方差的robust估計
covariance.OAS([store_precision,?...])Oracle近似收縮估計
covariance.ShrunkCovariance([...])協變量估計與收縮
covariance.empirical_covariance(X[,?...])計算最大似然協方差估計
covariance.ledoit_wolf(X[,?assume_centered,?...])估計縮小的Ledoit-Wolf協方差矩陣
covariance.shrunk_covariance(emp_cov[,?...])計算對角線上收縮的協方差矩陣
covariance.oas(X[,?assume_centered])使用Oracle近似收縮算法估計協方差
covariance.graph_lasso(emp_cov,?alpha[,?...])l1懲罰協方差估計

?

sklearn.model_selection: Model Selection(模型選擇)

用戶指南:請參閱交叉驗證:評估估計器性能,調整估計器的超參數和?學習曲線部分以獲取更多詳細信息。

分割器類

model_selection.KFold([n_splits,?shuffle,?...])K-折疊交叉驗證器
model_selection.GroupKFold([n_splits])具有非重疊組的K-fold迭代器變體
model_selection.StratifiedKFold([n_splits,?...])分層K-折疊交叉驗證器
model_selection.LeaveOneGroupOut()離開一組交叉驗證器
model_selection.LeavePGroupsOut(n_groups)離開P組交叉驗證器
model_selection.LeaveOneOut()一次性交叉驗證器
model_selection.LeavePOut(p)Leave-P-Out交叉驗證器
model_selection.ShuffleSplit([n_splits,?...])隨機置換交叉驗證器
model_selection.GroupShuffleSplit([...])隨機組 - 交叉驗證迭代器
model_selection.StratifiedShuffleSplit([...])分層ShuffleSplit交叉驗證器
model_selection.PredefinedSplit(test_fold)預定義分裂交叉驗證器
model_selection.TimeSeriesSplit([n_splits])時間序列交叉驗證器

?

分割函數

model_selection.train_test_split(\*arrays,?...)將陣列或矩陣拆分成隨機列和測試子集
model_selection.check_cv([cv,?y,?classifier])用于構建交叉驗證器的輸入檢查器實用程序

?

超參數優化

model_selection.GridSearchCV(estimator,?...)對估計器的指定參數值進行詳盡搜索
model_selection.RandomizedSearchCV(...[,?...])隨機搜索超參數
model_selection.ParameterGrid(param_grid)每個參數的網格具有離散數量的值
model_selection.ParameterSampler(...[,?...])發電機對從給定分布采樣的參數
model_selection.fit_grid_point(X,?y,?...[,?...])適合一組參數

?

模型驗證

model_selection.cross_val_score(estimator,?X)通過交叉驗證評估分數
model_selection.cross_val_predict(estimator,?X)為每個輸入數據點生成交叉驗證的估計
model_selection.permutation_test_score(...)評估具有置換的交叉驗證分數的意義
model_selection.learning_curve(estimator,?X,?y)學習曲線
model_selection.validation_curve(estimator,?...)驗證曲線

?

sklearn.datasets: Datasets(數據集)

該sklearn.datasets模塊包括用于加載數據集的實用程序,包括加載和獲取流行參考數據集的方法。它還具有一些人工數據生成器。

用戶指南:有關詳細信息,請參閱數據集加載實用程序部分。

裝載機

datasets.clear_data_home([data_home])刪除數據家庭緩存的所有內容
datasets.get_data_home([data_home])返回scikit-learn數據目錄的路徑
datasets.fetch_20newsgroups([data_home,?...])加載20個新聞組數據集中的文件名和數據
datasets.fetch_20newsgroups_vectorized([...])加載20個新聞組數據集并將其轉換為tf-idf向量
datasets.load_boston([return_X_y])加載并返回波士頓房價數據集(回歸)
datasets.load_breast_cancer([return_X_y])加載并返回乳腺癌威斯康星數據集(分類)
datasets.load_diabetes([return_X_y])加載并返回糖尿病數據集(回歸)
datasets.load_digits([n_class,?return_X_y])加載并返回數字數據集(分類)
datasets.load_files(container_path[,?...])加載具有子文件夾名稱類別的文本文件
datasets.load_iris([return_X_y])加載并返回虹膜數據集(分類)
datasets.fetch_lfw_pairs([subset,?...])在野外(LFW)對數據集中的標記面的裝載程序
datasets.fetch_lfw_people([data_home,?...])野外(LFW)人物數據集中的標記面的裝載程序
datasets.load_linnerud([return_X_y])加載并返回linnerud數據集(多元回歸)
datasets.mldata_filename(dataname)轉換mldata.org文件名中的數據集的原始名稱
datasets.fetch_mldata(dataname[,?...])獲取mldata.org數據集
datasets.fetch_olivetti_faces([data_home,?...])Olivetti的裝載機面向AT&T的數據集
datasets.fetch_california_housing([...])來自StatLib的加州住房數據集的裝載機
datasets.fetch_covtype([data_home,?...])加載封面類型數據集,必要時下載
datasets.fetch_kddcup99([subset,?shuffle,?...])加載并返回kddcup 99數據集(分類)
datasets.fetch_rcv1([data_home,?subset,?...])加載RCV1 multilabel數據集,必要時下載
datasets.load_mlcomp(name_or_id[,?set_,?...])加載從http://mlcomp.org下載的數據集
datasets.load_sample_image(image_name)加載單個樣本圖像的numpy數組
datasets.load_sample_images()加載樣品圖像進行圖像處理
datasets.fetch_species_distributions([...])來自Phillips等的物種分布數據集的裝載機
datasets.load_svmlight_file(f[,?n_features,?...])將svmlight / libsvm格式的數據集加載到稀疏的CSR矩陣中
datasets.load_svmlight_files(files[,?...])從SVMlight格式的多個文件加載數據集
datasets.dump_svmlight_file(X,?y,?f[,?...])以svmlight / libsvm文件格式轉儲數據集

?

樣本生成器

datasets.make_blobs([n_samples,?n_features,?...])生成用于聚類的各向同性高斯斑點
datasets.make_classification([n_samples,?...])生成隨機n類分類問題
datasets.make_circles([n_samples,?shuffle,?...])在2d中制作一個包含較小圓的大圓
datasets.make_friedman1([n_samples,?...])產生“Friedman#1”回歸問題
datasets.make_friedman2([n_samples,?noise,?...])產生“Friedman#2”回歸問題
datasets.make_friedman3([n_samples,?noise,?...])產生“Friedman#3”回歸問題
datasets.make_gaussian_quantiles([mean,?...])通過分位數生成各向同性高斯和標簽樣本
datasets.make_hastie_10_2([n_samples,?...])生成Hastie等人使用的二進制分類數據
datasets.make_low_rank_matrix([n_samples,?...])生成具有鐘形奇異值的大多數低階矩陣
datasets.make_moons([n_samples,?shuffle,?...])使兩個交錯半圈
datasets.make_multilabel_classification([...])產生一個隨機多標簽分類問題
datasets.make_regression([n_samples,?...])產生隨機回歸問題
datasets.make_s_curve([n_samples,?noise,?...])生成S曲線數據集
datasets.make_sparse_coded_signal(n_samples,?...)生成信號作為字典元素的稀疏組合
datasets.make_sparse_spd_matrix([dim,?...])產生一個稀疏的對稱確定正矩陣
datasets.make_sparse_uncorrelated([...])生成稀疏不相關設計的隨機回歸問題
datasets.make_spd_matrix(n_dim[,?random_state])產生一個隨機對稱,正定矩陣
datasets.make_swiss_roll([n_samples,?noise,?...])生成瑞士卷數據集
datasets.make_biclusters(shape,?n_clusters)生成一個具有恒定塊對角線結構的陣列,用于二聚體
datasets.make_checkerboard(shape,?n_clusters)生成具有塊棋盤結構的數組,用于雙向聚集

?

sklearn.decomposition: Matrix Decomposition(矩陣分解)

該sklearn.decomposition模塊包括矩陣分解算法,其中包括PCA,NMF或ICA。該模塊的大多數算法可以被認為是降維技術。

用戶指南:有關詳細信息,請參閱組件中的分解信號(矩陣分解問題)部分。

decomposition.PCA([n_components,?copy,?...])主成分分析(PCA)
decomposition.IncrementalPCA([n_components,?...])增量主成分分析(IPCA)
decomposition.ProjectedGradientNMF(\*args,?...)非負矩陣因子分解(NMF)
decomposition.KernelPCA([n_components,?...])內核主成分分析(KPCA)
decomposition.FactorAnalysis([n_components,?...])因子分析(FA)
decomposition.FastICA([n_components,?...])FastICA:獨立分量分析的快速算法。
decomposition.TruncatedSVD([n_components,?...])使用截斷的SVD(也稱為LSA)進行尺寸縮小
decomposition.NMF([n_components,?init,?...])非負矩陣因子分解(NMF)
decomposition.SparsePCA([n_components,?...])稀疏主成分分析(SparsePCA)
decomposition.MiniBatchSparsePCA([...])小批量稀疏主成分分析
decomposition.SparseCoder(dictionary[,?...])稀疏編碼
decomposition.DictionaryLearning([...])詞典學習
decomposition.MiniBatchDictionaryLearning([...])小批量字典學習
decomposition.LatentDirichletAllocation([...])潛在的Dirichlet分配與在線變分貝葉斯算法
decomposition.fastica(X[,?n_components,?...])執行快速獨立成分分析
decomposition.dict_learning(X,?n_components,?...)解決詞典學習矩陣分解問題
decomposition.dict_learning_online(X[,?...])在線解決詞典學習矩陣分解問題
decomposition.sparse_encode(X,?dictionary[,?...])稀疏編碼

?

sklearn.dummy: Dummy estimators(虛擬估計)

用戶指南:有關詳細信息,請參閱模型評估:量化預測部分的質量部分。

?

dummy.DummyClassifier([strategy,?...])DummyClassifier是使用簡單規則進行預測的分類器
dummy.DummyRegressor([strategy,?constant,?...])DummyRegressor是使用簡單規則進行預測的倒數

?

sklearn.ensemble: Ensemble Methods(集成方法)

該sklearn.ensemble模塊包括用于分類,回歸和異常檢測的基于集成的方法。

用戶指南:有關詳細信息,請參閱“?集成方法部分。

ensemble.AdaBoostClassifier([...])一個AdaBoost分類器
ensemble.AdaBoostRegressor([base_estimator,?...])AdaBoost回歸器
ensemble.BaggingClassifier([base_estimator,?...])Bagging分類器
ensemble.BaggingRegressor([base_estimator,?...])Bagging回歸器
ensemble.ExtraTreesClassifier([...])一個額外的樹分類器
ensemble.ExtraTreesRegressor([n_estimators,?...])一個額外的樹回歸器
ensemble.GradientBoostingClassifier([loss,?...])梯度提升分類
ensemble.GradientBoostingRegressor([loss,?...])漸變提升回歸
ensemble.IsolationForest([n_estimators,?...])隔離森林算法
ensemble.RandomForestClassifier([...])隨機森林分類器
ensemble.RandomTreesEmbedding([...])一個完全隨機的樹的集成
ensemble.RandomForestRegressor([...])隨機森林回歸器
ensemble.VotingClassifier(estimators[,?...])軟投票/多數規則分類器

部分依賴

樹組合的部分依賴圖

ensemble.partial_dependence.partial_dependence(...)部分依賴target_variables
ensemble.partial_dependence.plot_partial_dependence(...)部分依賴圖features

?

sklearn.exceptions: Exceptions and warnings(異常和警告)

該sklearn.exceptions模塊包括在scikit學習中使用的所有自定義警告和錯誤類。

exceptions.NotFittedError如果在擬合前使用估計器,則提升異常類
exceptions.ChangedBehaviorWarning用于通知用戶任何行為變化的警告類
exceptions.ConvergenceWarning捕捉收斂問題的自定義警告
exceptions.DataConversionWarning警告用于通知代碼中發生的隱式數據轉換
exceptions.DataDimensionalityWarning自定義警告,以通知數據維度的潛在問題
exceptions.EfficiencyWarning用于通知用戶效率低下的警告
exceptions.FitFailedWarning如果在擬合估計器時出現錯誤,則使用警告類
exceptions.NonBLASDotWarning點操作不使用BLAS時使用的警告
exceptions.UndefinedMetricWarning度量無效時使用的警告

?

sklearn.feature_extraction: Feature Extraction(特征提取)

該sklearn.feature_extraction模塊處理原始數據的特征提取。它目前包括從文本和圖像中提取特征的方法。

用戶指南:有關詳細信息,請參閱特征提取部分。

feature_extraction.DictVectorizer([dtype,?...])將特征值映射列表轉換為向量
feature_extraction.FeatureHasher([...])實現哈希功能,又稱哈希技巧

從圖像

該sklearn.feature_extraction.image子模塊收集實用程序從圖像中提取特征。

feature_extraction.image.img_to_graph(img[,?...])像素到像素梯度連接的圖形
feature_extraction.image.grid_to_graph(n_x,?n_y)像素到像素連接的圖形
feature_extraction.image.extract_patches_2d(...)將2D圖像重新整理成一組補丁
feature_extraction.image.reconstruct_from_patches_2d(...)從所有補丁重構圖像
feature_extraction.image.PatchExtractor([...])從圖像集中提取補丁

?

從文本

該sklearn.feature_extraction.text子模塊收集實用程序從文本文檔建立特征向量。

feature_extraction.text.CountVectorizer([...])將文本文檔的集合轉換為令牌計數矩陣
feature_extraction.text.HashingVectorizer([...])將文本文檔的集合轉換為令牌發生的矩陣
feature_extraction.text.TfidfTransformer([...])將計數矩陣轉換為標準化的tf或tf-idf表示
feature_extraction.text.TfidfVectorizer([...])將原始文檔的集合轉換為TF-IDF功能的矩陣

?

sklearn.feature_selection: Feature Selection(特征選擇)

該sklearn.feature_selection模塊實現特征選擇算法。它目前包括單變量篩選方法和遞歸特征消除算法。

用戶指南:有關詳細信息,請參閱功能選擇部分。

feature_selection.GenericUnivariateSelect([...])具有可配置策略的單變量特征選擇器
feature_selection.SelectPercentile([...])根據最高分數百分位數選擇功能
feature_selection.SelectKBest([score_func,?k])根據k最高分選擇功能
feature_selection.SelectFpr([score_func,?alpha])過濾器:根據FPR測試選擇低于alpha的p值
feature_selection.SelectFdr([score_func,?alpha])過濾器:為估計的錯誤發現率選擇p值
feature_selection.SelectFromModel(estimator)元變壓器,用于根據重要性權重選擇特征
feature_selection.SelectFwe([score_func,?alpha])過濾器:選擇對應于同系誤差率的p值
feature_selection.RFE(estimator[,?...])功能排序與遞歸功能消除
feature_selection.RFECV(estimator[,?step,?...])功能排序與遞歸功能消除和交叉驗證選擇最佳數量的功能
feature_selection.VarianceThreshold([threshold])功能選擇器可刪除所有低方差特征
feature_selection.chi2(X,?y)計算每個非負特征和類之間的平方統計
feature_selection.f_classif(X,?y)計算提供的樣本的方差分析F值
feature_selection.f_regression(X,?y[,?center])單變量線性回歸測試
feature_selection.mutual_info_classif(X,?y)估計離散目標變量的互信息
feature_selection.mutual_info_regression(X,?y)估計連續目標變量的互信息

?

sklearn.gaussian_process: Gaussian Processes(高斯過程)

該sklearn.gaussian_process模塊實現了基于高斯過程的回歸和分類。

用戶指南:有關詳細信息,請參閱高斯過程部分。

gaussian_process.GaussianProcessRegressor([...])高斯過程回歸(GPR)
gaussian_process.GaussianProcessClassifier([...])基于拉普拉斯逼近的高斯過程分類(GPC)

內核:

gaussian_process.kernels.Kernel所有內核的基類
gaussian_process.kernels.Sum(k1,?k2)兩個內核k1和k2的和核k1 + k2
gaussian_process.kernels.Product(k1,?k2)兩個內核k1和k2的產品內核k1 * k2
gaussian_process.kernels.Exponentiation(...)通過給定指數來指定內核
gaussian_process.kernels.ConstantKernel([...])恒定內核
gaussian_process.kernels.WhiteKernel([...])白內核
gaussian_process.kernels.RBF([length_scale,?...])徑向基函數核(又稱平方指數核)
gaussian_process.kernels.Matern([...])Matern 內核.
gaussian_process.kernels.RationalQuadratic([...])理性二次內核
gaussian_process.kernels.ExpSineSquared([...])正弦平方內核
gaussian_process.kernels.DotProduct([...])Dot-Product內核
gaussian_process.kernels.PairwiseKernel([...])在sklearn.metrics.pairwise中的內核包裝器
gaussian_process.kernels.CompoundKernel(kernels)內核由一組其他內核組成
gaussian_process.kernels.Hyperparameter內核超參數的指定形式為namedtuple

?

sklearn.isotonic: Isotonic regression(等式回歸)

用戶指南:有關詳細信息,請參閱等滲回歸部分。

isotonic.IsotonicRegression([y_min,?y_max,?...])等滲回歸模型
isotonic.isotonic_regression(y[,?...])求解等滲回歸模型:
isotonic.check_increasing(x,?y)確定y是否與x單調相關

?

sklearn.kernel_approximation?Kernel Approximation(內核近似)

該sklearn.kernel_approximation模塊基于傅里葉變換實現幾個近似核特征圖。

用戶指南:有關更多詳細信息,請參閱內核近似部分。

kernel_approximation.AdditiveChi2Sampler([...])加性chi2核的近似特征圖
kernel_approximation.Nystroem([kernel,?...])使用訓練數據的子集近似一個內核映射
kernel_approximation.RBFSampler([gamma,?...])通過其傅立葉變換的Monte Carlo近似近似RBF核的特征圖
kernel_approximation.SkewedChi2Sampler([...])通過其傅立葉變換的蒙特卡羅近似近似的“偏斜卡方”核的特征圖

?

sklearn.kernel_ridge?Kernel Ridge Regression(內核嶺回歸)

模塊sklearn.kernel_ridge實現內核脊回歸。

用戶指南:有關更多詳細信息,請參閱Kernel ridge回歸部分。

kernel_ridge.KernelRidge([alpha,?kernel,?...])內核嶺回歸

?

sklearn.discriminant_analysis: Discriminant Analysis(判別分析)

線性判別分析和二次判別分析

用戶指南:有關詳細信息,請參閱線性和二次判別分析部分。

discriminant_analysis.LinearDiscriminantAnalysis([...])線性判別分析
discriminant_analysis.QuadraticDiscriminantAnalysis([...])二次判別分析

?

sklearn.linear_model: Generalized Linear Models(廣義線性模型)

該sklearn.linear_model模塊實現廣義線性模型。它包括利用最小角度回歸和坐標下降計算的嶺回歸,貝葉斯回歸,套索和彈性網估計。它還實現隨機梯度下降相關算法。

用戶指南:有關詳細信息,請參閱“?廣義線性模型”一節。

linear_model.ARDRegression([n_iter,?tol,?...])貝葉斯ARD回歸
linear_model.BayesianRidge([n_iter,?tol,?...])貝葉斯脊回歸
linear_model.ElasticNet([alpha,?l1_ratio,?...])線性回歸與組合L1和L2先驗作為正則化器
linear_model.ElasticNetCV([l1_ratio,?eps,?...])彈性網模型沿正則化路徑迭代擬合
linear_model.HuberRegressor([epsilon,?...])線性回歸模型,對離群值是robust
linear_model.Lars([fit_intercept,?verbose,?...])最小角度回歸模型
linear_model.LarsCV([fit_intercept,?...])交叉驗證的最小二乘回歸模型
linear_model.Lasso([alpha,?fit_intercept,?...])線性模型訓練用L1作為矯正器(又名拉索)
linear_model.LassoCV([eps,?n_alphas,?...])拉索線性模型,沿正則化路徑迭代擬合
linear_model.LassoLars([alpha,?...])Lasso模型也適合最小角度回歸
linear_model.LassoLarsCV([fit_intercept,?...])使用LARS算法進行交叉驗證的Lasso
linear_model.LassoLarsIC([criterion,?...])Lasso模型適合Lars使用BIC或AIC進行型號選擇
linear_model.LinearRegression([...])普通最小二乘線性回歸
linear_model.LogisticRegression([penalty,?...])Logistic回歸(又名logit,MaxEnt)分類器
linear_model.LogisticRegressionCV([Cs,?...])Logistic回歸CV(又名logit,MaxEnt)分類器
linear_model.MultiTaskLasso([alpha,?...])用L1 / L2混合規范訓練的多任務Lasso模型作為正則化器
linear_model.MultiTaskElasticNet([alpha,?...])用L1 / L2混合規范訓練的多任務ElasticNet模型作為正則化程序
linear_model.MultiTaskLassoCV([eps,?...])多任務L1 / L2 Lasso內置交叉驗證
linear_model.MultiTaskElasticNetCV([...])多任務L1 / L2 ElasticNet內置交叉驗證
linear_model.OrthogonalMatchingPursuit([...])正交匹配追蹤模型(OMP)
linear_model.OrthogonalMatchingPursuitCV([...])交叉驗證的正交匹配追蹤模型(OMP)
linear_model.PassiveAggressiveClassifier([...])被動侵略分類器
linear_model.PassiveAggressiveRegressor([C,?...])被動侵略者
linear_model.Perceptron([penalty,?alpha,?...])在“?用戶指南”中內容。
linear_model.RandomizedLasso([alpha,?...])隨機拉索
linear_model.RandomizedLogisticRegression([...])隨機邏輯回歸
linear_model.RANSACRegressor([...])RANSAC(RANdom SAmple Consensus)算法
linear_model.Ridge([alpha,?fit_intercept,?...])具有l2正則化的線性最小二乘法
linear_model.RidgeClassifier([alpha,?...])分類器使用Ridge回歸
linear_model.RidgeClassifierCV([alphas,?...])里奇分類器內置交叉驗證
linear_model.RidgeCV([alphas,?...])里奇回歸與內置交叉驗證
linear_model.SGDClassifier([loss,?penalty,?...])線性分類器(SVM,邏輯回歸,ao)與SGD訓練
linear_model.SGDRegressor([loss,?penalty,?...])通過使用SGD最小化正則化經驗損失擬合的線性模型
linear_model.TheilSenRegressor([...])Theil-Sen估計:強大的多變量回歸模型
linear_model.lars_path(X,?y[,?Xy,?Gram,?...])使用LARS算法計算最小角度回歸或套索路徑[1]
linear_model.lasso_path(X,?y[,?eps,?...])計算具有坐標下降的Lasso路徑
linear_model.lasso_stability_path(X,?y[,?...])基于隨機拉索估計的穩定性路徑
linear_model.logistic_regression_path(X,?y)為正則化參數列表計算邏輯回歸模型
linear_model.orthogonal_mp(X,?y[,?...])正交匹配追蹤(OMP)
linear_model.orthogonal_mp_gram(Gram,?Xy[,?...])革命正交匹配追蹤(OMP)

?

sklearn.manifold: Manifold Learning(歧管學習)

該sklearn.manifold模塊實現數據嵌入技術。

用戶指南:有關詳細信息,請參閱歧管學習部分。

manifold.LocallyLinearEmbedding([...])局部線性嵌入
manifold.Isomap([n_neighbors,?n_components,?...])Isomap嵌入
manifold.MDS([n_components,?metric,?n_init,?...])多維縮放
manifold.SpectralEmbedding([n_components,?...])用于非線性維數降低的光譜嵌入
manifold.TSNE([n_components,?perplexity,?...])t分布隨機相鄰嵌入
manifold.locally_linear_embedding(X,?...[,?...])對數據進行局部線性嵌入分析
manifold.spectral_embedding(adjacency[,?...])將樣本投影在拉普拉斯算子的第一個特征向量上

?

sklearn.metrics: Metrics(指標)

有關詳細信息,請參閱模型評估:量化用戶指南的預測部分的質量部分和成對度量度,親和力和內核部分。

該sklearn.metrics模塊包括分數函數,性能度量和成對度量和距離計算。

選型接口

有關詳細信息,請參閱評分參數:定義用戶指南的模型評估規則部分。

metrics.make_scorer(score_func[,?...])從表現指標或損失函數中取得記分員
metrics.get_scorer(scoring)?

?

分類度量

有關詳細信息,請參閱用戶指南的“?分類指標”部分。

metrics.accuracy_score(y_true,?y_pred[,?...])準確度分級得分
metrics.auc(x,?y[,?reorder])曲線下的計算面積(AUC)使用梯形規則
metrics.average_precision_score(y_true,?y_score)從預測分數計算平均精度(AP)
metrics.brier_score_loss(y_true,?y_prob[,?...])計算Brier分數
metrics.classification_report(y_true,?y_pred)構建一個顯示主要分類指標的文本報告
metrics.cohen_kappa_score(y1,?y2[,?labels,?...])科恩的kappa:衡量標注者間協議的統計
metrics.confusion_matrix(y_true,?y_pred[,?...])計算混淆矩陣來評估分類的準確性
metrics.f1_score(y_true,?y_pred[,?labels,?...])計算F1分數,也稱為平衡F分數或F度量
metrics.fbeta_score(y_true,?y_pred,?beta[,?...])計算F-beta分數
metrics.hamming_loss(y_true,?y_pred[,?...])計算平均漢明損失
metrics.hinge_loss(y_true,?pred_decision[,?...])平均鉸鏈損失(非正規化)
metrics.jaccard_similarity_score(y_true,?y_pred)Jaccard相似系數得分
metrics.log_loss(y_true,?y_pred[,?eps,?...])對數損失,又稱物流損失或交叉熵損失
metrics.matthews_corrcoef(y_true,?y_pred[,?...])計算二進制類的馬修斯相關系數(MCC)
metrics.precision_recall_curve(y_true,?...)計算不同概率閾值的?precision-recall?對
metrics.precision_recall_fscore_support(...)計算每個課程的precision,recall,F度量和支持
metrics.precision_score(y_true,?y_pred[,?...])計算precision
metrics.recall_score(y_true,?y_pred[,?...])計算recall
metrics.roc_auc_score(y_true,?y_score[,?...])曲線下的計算面積(AUC)來自預測分數
metrics.roc_curve(y_true,?y_score[,?...])計算接收器工作特性(ROC)
metrics.zero_one_loss(y_true,?y_pred[,?...])零分類損失

?

回歸指標

有關詳細信息,請參閱用戶指南的“回歸指標”部分。

metrics.explained_variance_score(y_true,?y_pred)解釋方差回歸分數函數
metrics.mean_absolute_error(y_true,?y_pred)平均絕對誤差回歸損失
metrics.mean_squared_error(y_true,?y_pred[,?...])均方誤差回歸損失
metrics.median_absolute_error(y_true,?y_pred)中值絕對誤差回歸損失
metrics.r2_score(y_true,?y_pred[,?...])R^2(測定系數)回歸分數函數

?

多標簽排名指標

有關更多詳細信息,請參閱用戶指南的“?多標簽排名指標”部分。

metrics.coverage_error(y_true,?y_score[,?...])覆蓋誤差測量
metrics.label_ranking_average_precision_score(...)計算基于排名的平均精度
metrics.label_ranking_loss(y_true,?y_score)計算排名損失量

?

聚類指標


有關詳細信息,請參閱用戶指南的群集性能評估部分。

該sklearn.metrics.cluster子模塊包含了聚類分析的結果評價指標。有兩種形式的評估:

  • 監督,它為每個樣本使用地面真值類別值。
  • 無監督,不對和衡量模型本身的“質量”。
metrics.adjusted_mutual_info_score(...)兩個集群之間調整的相互信息
metrics.adjusted_rand_score(labels_true,?...)蘭德指數調整機會
metrics.calinski_harabaz_score(X,?labels)計算Calinski和Harabaz得分
metrics.completeness_score(labels_true,?...)給定一個地面真相的集群標簽的完整度量
metrics.fowlkes_mallows_score(labels_true,?...)測量一組點的兩個聚類的相似度
metrics.homogeneity_completeness_v_measure(...)一次計算同質性和完整性和V-Measure分數
metrics.homogeneity_score(labels_true,?...)給出了一個地面事實的集群標簽的均勻性度量
metrics.mutual_info_score(labels_true,?...)兩個集群之間的相互信息
metrics.normalized_mutual_info_score(...)兩個集群之間的歸一化互信息
metrics.silhouette_score(X,?labels[,?...])計算所有樣本的平均輪廓系數
metrics.silhouette_samples(X,?labels[,?metric])計算每個樣本的剪影系數
metrics.v_measure_score(labels_true,?labels_pred)V-measure集群標簽給出了一個基本的真相

?

二聚體指標

有關詳細信息,請參閱用戶指南的Biclustering評估部分。
metrics.consensus_score(a,?b[,?similarity])兩組雙核的相似性

?

成對指標

有關更多詳細信息,請參閱用戶指南的“?成對度量度,親和力和內核”部分。
metrics.pairwise.additive_chi2_kernel(X[,?Y])計算X和Y中觀測值之間的加性卡方核
metrics.pairwise.chi2_kernel(X[,?Y,?gamma])計算指數卡方核X和Y
metrics.pairwise.distance_metrics()pairwise_distances的有效指標
metrics.pairwise.euclidean_distances(X[,?Y,?...])考慮X(和Y = X)的行作為向量,計算每對向量之間的距離矩陣
metrics.pairwise.kernel_metrics()pairwise_kernels的有效指標
metrics.pairwise.linear_kernel(X[,?Y])計算X和Y之間的線性內核
metrics.pairwise.manhattan_distances(X[,?Y,?...])計算X和Y中向量之間的L1距離
metrics.pairwise.pairwise_distances(X[,?Y,?...])從矢量數組X和可選Y計算距離矩陣
metrics.pairwise.pairwise_kernels(X[,?Y,?...])計算陣列X和可選陣列Y之間的內核
metrics.pairwise.polynomial_kernel(X[,?Y,?...])計算X和Y之間的多項式內核
metrics.pairwise.rbf_kernel(X[,?Y,?gamma])計算X和Y之間的rbf(高斯)內核
metrics.pairwise.sigmoid_kernel(X[,?Y,?...])計算X和Y之間的S形內核
metrics.pairwise.cosine_similarity(X[,?Y,?...])計算X和Y中樣本之間的余弦相似度
metrics.pairwise.cosine_distances(X[,?Y])計算X和Y中樣本之間的余弦距離
metrics.pairwise.laplacian_kernel(X[,?Y,?gamma])計算X和Y之間的拉普拉斯核
metrics.pairwise_distances(X[,?Y,?metric,?...])從矢量數組X和可選Y計算距離矩陣
metrics.pairwise_distances_argmin(X,?Y[,?...])計算一點與一組點之間的最小距離
metrics.pairwise_distances_argmin_min(X,?Y)計算一點與一組點之間的最小距離
metrics.pairwise.paired_euclidean_distances(X,?Y)計算X與Y之間的配對歐氏距離
metrics.pairwise.paired_manhattan_distances(X,?Y)計算X和Y中向量之間的L1距離
metrics.pairwise.paired_cosine_distances(X,?Y)計算X和Y之間的配對余弦距離
metrics.pairwise.paired_distances(X,?Y[,?metric])計算X和Y之間的配對距離

?

sklearn.mixture: Gaussian Mixture Models(高斯混合模型)

該sklearn.mixture模塊實現混合建模算法。

用戶指南:有關詳細信息,請參閱高斯混合模型部分。

mixture.GaussianMixture([n_components,?...])高斯混合
mixture.BayesianGaussianMixture([...])高斯混合變分貝葉斯估計

?

sklearn.multiclass: Multiclass and multilabel classification(多類和多標簽分類)

多類和多標簽分類策略

該模塊實現了多類學習算法:

  • one-vs-the-rest / one-vs-all
  • one-vs-one
  • 糾錯輸出代碼

該模塊中提供的估計量是元估計器:它們需要在其構造函數中提供基本估計器。例如,可以使用這些估計器將二進制分類器或回歸器轉換為多類分類器。也可以將這些估計器與多類估計器一起使用,希望它們的準確性或運行時性能得到改善。

scikit-learn中的所有分類器實現多類分類;?您只需要使用此模塊即可嘗試使用自定義多類策略。

一對一的元分類器也實現了一個predict_proba方法,只要這種方法由基類分類器實現即可。該方法在單個標簽和多重標簽的情況下返回類成員資格的概率。注意,在多重標簽的情況下,概率是給定樣本落在給定類中的邊際概率。因此,在多標簽情況下,這些概率在一個給定樣本的所有可能的標簽的總和不會和為1,因為他們在單個標簽的情況下做的。

用戶指南:有關詳細信息,請參閱多類和多標簽算法部分。

multiclass.OneVsRestClassifier(estimator[,?...])One-vs-the-rest (OvR)?多類/多標簽策略
multiclass.OneVsOneClassifier(estimator[,?...])One-vs-one?多類策略
multiclass.OutputCodeClassifier(estimator[,?...])(錯誤校正)輸出代碼多類策略

?

sklearn.multioutput: Multioutput regression and classification(多輸出回歸和分類)

該模塊實現多輸出回歸和分類。

該模塊中提供的估計量是元估計器:它們需要在其構造函數中提供基本估計器。元估計器將單輸出估計器擴展到多輸出估計器。

用戶指南:有關詳細信息,請參閱多類和多標簽算法部分。

multioutput.MultiOutputRegressor(estimator)多目標回歸
multioutput.MultiOutputClassifier(estimator)多目標分類

?

sklearn.naive_bayes: Naive Bayes(樸素貝葉斯)

該sklearn.naive_bayes模塊實現樸素貝葉斯算法。這些是基于應用貝葉斯定理與強(天真)特征獨立假設的監督學習方法。

用戶指南:有關詳細信息,請參閱“?樸素貝葉斯”部分。

naive_bayes.GaussianNB([priors])高斯樸素貝葉斯(GaussianNB)
naive_bayes.MultinomialNB([alpha,?...])樸素貝葉斯分類器多項式模型
naive_bayes.BernoulliNB([alpha,?binarize,?...])樸素貝葉斯分類器多變量伯努利模型

?

sklearn.neighbors: Nearest Neighbors(最近鄰)

該sklearn.neighbors模塊實現了k-最近鄰居算法。

用戶指南:有關更多詳細信息,請參閱最近鄰居部分。

neighbors.NearestNeighbors([n_neighbors,?...])無監督學習者實施鄰居搜索
neighbors.KNeighborsClassifier([...])執行k-最近鄰居的分類器投票
neighbors.RadiusNeighborsClassifier([...])分類器在給定半徑內的鄰居中執行投票
neighbors.KNeighborsRegressor([n_neighbors,?...])基于k最近鄰的回歸
neighbors.RadiusNeighborsRegressor([radius,?...])基于固定半徑內的鄰居的回歸
neighbors.NearestCentroid([metric,?...])最重心分類器
neighbors.BallTreeBallTree用于快速泛化N點問題
neighbors.KDTreeKDTree用于快速泛化的N點問題
neighbors.LSHForest([n_estimators,?radius,?...])使用LSH森林執行近似最近鄰搜索
neighbors.DistanceMetricDistanceMetric類
neighbors.KernelDensity([bandwidth,?...])核密度估計
neighbors.kneighbors_graph(X,?n_neighbors[,?...])計算X中k個鄰居的(加權)圖
neighbors.radius_neighbors_graph(X,?radius)計算X中的點的鄰居的(加權)圖

?

sklearn.neural_network: Neural network models(神經網絡模型)

該sklearn.neural_network模塊包括基于神經網絡的模型。

用戶指南:有關詳細信息,請參閱神經網絡模型(受監督)和神經網絡模型(無監督)部分。

neural_network.BernoulliRBM([n_components,?...])伯努利限制玻爾茲曼機(RBM)
neural_network.MLPClassifier([...])多層感知器分類器
neural_network.MLPRegressor([...])多層感知器回歸

?

sklearn.calibration: Probability Calibration(概率校準)

校準預測概率。

用戶指南:有關詳細信息,請參閱概率校準部分。

calibration.CalibratedClassifierCV([...])等滲回歸或乙狀結構的概率校準
calibration.calibration_curve(y_true,?y_prob)計算校準曲線的真實和預測概率

?

sklearn.cross_decomposition: Cross decomposition(交叉分解)

用戶指南:有關詳細信息,請參閱交叉分解部分。

cross_decomposition.PLSRegression([...])PLS回歸
cross_decomposition.PLSCanonical([...])PLSCanonical實現了原始Wold算法的2塊規范PLS [Tenenhaus 1998] p.204,在[Wegelin 2000]中被稱為PLS-C2A
cross_decomposition.CCA([n_components,?...])CCA規范相關分析
cross_decomposition.PLSSVD([n_components,?...])部分最小二乘SVD

?

sklearn.pipeline: Pipeline(管道)

該sklearn.pipeline模塊實現實用程序來構建復合估計器,作為變換鏈和估計器鏈。

pipeline.Pipeline(steps)最終估計量的變換管道
pipeline.FeatureUnion(transformer_list[,?...])連接多個變壓器對象的結果
pipeline.make_pipeline(\*steps)從給定的估計量構建管道
pipeline.make_union(\*transformers)從給定的變壓器構造一個FeatureUnion

?

sklearn.preprocessing: Preprocessing and Normalization(預處理和規范化)

該sklearn.preprocessing模塊包括縮放,定心,歸一化,二值化和插補方法。

用戶指南:有關詳細信息,請參閱預處理數據部分。

preprocessing.Binarizer([threshold,?copy])根據閾值對數據進行二值化(將特征值設置為0或1)
preprocessing.FunctionTransformer([func,?...])從任意可調用的構造一個變壓器
preprocessing.Imputer([missing_values,?...])用于完成缺失值的插補變壓器
preprocessing.KernelCenterer中心一個內核矩陣
preprocessing.LabelBinarizer([neg_label,?...])以一對一的方式對標簽進行二值化
preprocessing.LabelEncoder在0和n_classes-1之間編碼標簽
preprocessing.MultiLabelBinarizer([classes,?...])在迭代迭代和多標簽格式之間進行轉換
preprocessing.MaxAbsScaler([copy])按每個特征的最大絕對值進行縮放
preprocessing.MinMaxScaler([feature_range,?copy])通過將每個功能縮放到給定范圍來轉換功能
preprocessing.Normalizer([norm,?copy])將樣品歸一化為單位范數
preprocessing.OneHotEncoder([n_values,?...])使用一個單一的一個K方案來編碼分類整數特征
preprocessing.PolynomialFeatures([degree,?...])生成多項式和交互特征
preprocessing.RobustScaler([with_centering,?...])使用對異常值可靠的統計信息來縮放特征
preprocessing.StandardScaler([copy,?...])通過刪除平均值和縮放到單位方差來標準化特征
preprocessing.add_dummy_feature(X[,?value])增強數據集,帶有額外的虛擬功能
preprocessing.binarize(X[,?threshold,?copy])數組式或scipy.sparse矩陣的布爾閾值
preprocessing.label_binarize(y,?classes[,?...])以?one-vs-all?的方式對標簽進行二值化
preprocessing.maxabs_scale(X[,?axis,?copy])將每個特征縮放到[-1,1]范圍,而不破壞稀疏度
preprocessing.minmax_scale(X[,?...])通過將每個功能縮放到給定范圍來轉換功能
preprocessing.normalize(X[,?norm,?axis,?...])將輸入向量分別縮放到單位范數(向量長度)
preprocessing.robust_scale(X[,?axis,?...])沿著任何軸標準化數據集
preprocessing.scale(X[,?axis,?with_mean,?...])沿著任何軸標準化數據集

?

sklearn.random_projection: Random projection(隨機投影)

隨機投影變壓器

隨機投影是一種簡單且計算有效的方法,通過交易控制的精確度(作為附加方差)來減少數據的維度,以實現更快的處理時間和更小的模型大小。

控制隨機投影矩陣的維數和分布,以保留數據集的任意兩個樣本之間的成對距離。

隨機投影效率背后的主要理論結果是?Johnson-Lindenstrauss lemma(引用維基百科):

在數學方面,Johnson-Lindenstrauss引理是從高維度到低維度歐幾里德空間的低失真嵌入點的結果。引理指出,高維度空間中的一小部分點可以嵌入到較低維度的空間中,使得點之間的距離幾乎保持不變。用于嵌入的地圖至少為Lipschitz,甚至可以被視為正交投影。

用戶指南:有關詳細信息,請參閱隨機投影部分。

random_projection.GaussianRandomProjection([...])通過高斯隨機投影降低維數
random_projection.SparseRandomProjection([...])通過稀疏隨機投影降低維數
random_projection.johnson_lindenstrauss_min_dim(...)找到一個“安全”數量的組件隨機投影到

?

sklearn.semi_supervised?Semi-Supervised Learning(半監督學習)

該sklearn.semi_supervised模塊實現半監督學習算法。這些算法使用少量的標記數據和大量未標記的分類任務數據。該模塊包括標簽傳播。

用戶指南:有關詳細信息,請參閱半監督部分。

semi_supervised.LabelPropagation([kernel,?...])標簽傳播分類器
semi_supervised.LabelSpreading([kernel,?...])用于半監督學習的LabelSpread模型

?

sklearn.svm: Support Vector Machines(支持向量機)

該sklearn.svm模塊包括支持向量機算法。

用戶指南:有關詳細信息,請參閱支持向量機部分。

評估者

?

svm.SVC([C,?kernel,?degree,?gamma,?coef0,?...])C支持向量分類
svm.LinearSVC([penalty,?loss,?dual,?tol,?C,?...])線性支持向量分類
svm.NuSVC([nu,?kernel,?degree,?gamma,?...])Nu支持向量分類
svm.SVR([kernel,?degree,?gamma,?coef0,?tol,?...])Epsilon支持向量回歸
svm.LinearSVR([epsilon,?tol,?C,?loss,?...])線性支持向量回歸
svm.NuSVR([nu,?C,?kernel,?degree,?gamma,?...])Nu支持向量回歸
svm.OneClassSVM([kernel,?degree,?gamma,?...])無監督異常檢測
svm.l1_min_c(X,?y[,?loss,?fit_intercept,?...])返回C的最低邊界,使得對于C(l1_min_C,無窮大),模型保證不為空

?

低級方法

svm.libsvm.fit使用libsvm(低級方法)訓練模型
svm.libsvm.decision_function預測余量(這是libsvm的名稱是predict_values)
svm.libsvm.predict給定模型預測X的目標值(低級方法)
svm.libsvm.predict_proba預測概率
svm.libsvm.cross_validation交叉驗證程序的綁定(低級程序)

?

sklearn.tree: Decision Trees(決策樹)

該sklearn.tree模塊包括用于分類和回歸的基于決策樹的模型。

用戶指南:有關詳細信息,請參閱決策樹部分。

tree.DecisionTreeClassifier([criterion,?...])決策樹分類器
tree.DecisionTreeRegressor([criterion,?...])決策樹倒數
tree.ExtraTreeClassifier([criterion,?...])一個非常隨機的樹分類器
tree.ExtraTreeRegressor([criterion,?...])一個非常隨機的樹倒數
tree.export_graphviz以DOT格式導出決策樹

?

sklearn.utils: Utilities(工具)

該sklearn.utils模塊包括各種實用程序。

開發人員指南:有關詳細信息,請參閱實用程序開發人員頁面。

utils.check_random_state(seed)將種子轉換成np.random.RandomState實例
utils.estimator_checks.check_estimator(Estimator)檢查估計是否符合scikit學習慣例
utils.resample(\*arrays,?\*\*options)以一致的方式重新采樣數組或稀疏矩陣
utils.shuffle(\*arrays,?\*\*options)以一致的方式排列數組或稀疏矩陣

?

最近棄用

要在0.19中刪除

lda.LDA([solver,?shrinkage,?priors,?...])別名?sklearn.discriminant_analysis.LinearDiscriminantAnalysis.
qda.QDA([priors,?reg_param,?...])別名?sklearn.discriminant_analysis.QuadraticDiscriminantAnalysis.
datasets.load_lfw_pairs(\*args,?\*\*kwargs)DEPRECATED:函數'load_lfw_pairs'已經在0.17中被棄用,將在0.19中刪除。請改用fetch_lfw_pairs(download_if_missing = False)
datasets.load_lfw_people(\*args,?\*\*kwargs)DEPRECATED:函數'load_lfw_people'在0.17中已被棄用,將在0.19中刪除。請改用fetch_lfw_people(download_if_missing = False)

?

在0.20中刪除

grid_search.ParameterGrid(param_grid)每個參數的網格具有離散數量的值
grid_search.ParameterSampler(...[,?random_state])發電機對從給定分布采樣的參數
grid_search.GridSearchCV(estimator,?param_grid)對估計器的指定參數值進行詳盡搜索
grid_search.RandomizedSearchCV(estimator,?...)隨機搜索超參數
cross_validation.LeaveOneOut(n)一次性交叉驗證迭代器
cross_validation.LeavePOut(n,?p)Leave-P-Out交叉驗證迭代器
cross_validation.KFold(n[,?n_folds,?...])K-fold交叉驗證迭代器
cross_validation.LabelKFold(labels[,?n_folds])具有非重疊標簽的K-fold迭代器變體
cross_validation.LeaveOneLabelOut(labels)Leave-One-Label_Out交叉驗證迭代器
cross_validation.LeavePLabelOut(labels,?p)Leave-P-Label_Out交叉驗證迭代器
cross_validation.LabelShuffleSplit(labels[,?...])Shuffle-Labels-Out交叉驗證迭代器
cross_validation.StratifiedKFold(y[,?...])分層K-折疊交叉驗證迭代器
cross_validation.ShuffleSplit(n[,?n_iter,?...])隨機置換交叉驗證迭代器
cross_validation.StratifiedShuffleSplit(y[,?...])分層ShuffleSplit交叉驗證迭代器
cross_validation.PredefinedSplit(test_fold)預定義的分割交叉驗證迭代器
decomposition.RandomizedPCA(\*args,?\*\*kwargs)主成分分析(PCA)使用隨機SVD
gaussian_process.GaussianProcess(\*args,?\*\*kwargs)遺留高斯過程模型類
mixture.GMM(\*args,?\*\*kwargs)傳統高斯混合模型
mixture.DPGMM(\*args,?\*\*kwargs)Dirichlet過程高斯混合模型
mixture.VBGMM(\*args,?\*\*kwargs)高斯混合模型的變分推理
grid_search.fit_grid_point(X,?y,?estimator,?...)適合一組參數
learning_curve.learning_curve(estimator,?X,?y)學習曲線
learning_curve.validation_curve(estimator,?...)驗證曲線
cross_validation.cross_val_predict(estimator,?X)為每個輸入數據點生成交叉驗證的估計
cross_validation.cross_val_score(estimator,?X)通過交叉驗證評估分數
cross_validation.check_cv(cv[,?X,?y,?classifier])輸入檢查器實用程序以用戶友好的方式構建簡歷
cross_validation.permutation_test_score(...)評估具有置換的交叉驗證分數的意義
cross_validation.train_test_split(\*arrays,?...)將陣列或矩陣拆分成隨機列和測試子集

總結

以上是生活随笔為你收集整理的sklearn API 文档的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。