sklearn API 文档
所有函數和類的確切API,由docstrings給出。API會為所有功能提供預期類型和允許的功能,以及可用于算法的所有參數。
原文鏈接 :?http://scikit-learn.org/stable/modules/classes.html
譯文鏈接 :?http://cwiki.apachecn.org/pages/viewpage.action?pageId=10030193
貢獻者 :?片刻?ApacheCN?Apache中文網
這是scikit學習的類和函數參考。有關詳細信息,請參閱完整的用戶指南,因為類和功能原始規格可能不足以給出其使用的完整指導。
sklearn.base: Base classes and utility functions(基類和效用函數)
所有估計量的基類。
基礎類
| base.BaseEstimator | scikit學習中所有估計的基礎類 |
| base.ClassifierMixin | 所有分類器的混合類在scikit學習 |
| base.ClusterMixin | 所有聚類估計器的混合類在scikit學習中 |
| base.RegressorMixin | 所有回歸估計器的混合類在scikit學習 |
| base.TransformerMixin | 所有變壓器的混合類在scikit學習 |
?
函數
| base.clone(estimator[,?safe]) | 構造具有相同參數的新估計器 |
?
sklearn.cluster: Clustering(聚類)
該sklearn.cluster模塊收集流行的無監督聚類算法。
用戶指南:有關詳細信息,請參閱“?集群”部分。
類
| cluster.AffinityPropagation([damping,?...]) | 執行親和度傳播數據聚類 |
| cluster.AgglomerativeClustering([...]) | 集聚聚類 |
| cluster.Birch([threshold,?branching_factor,?...]) | 實現Birch聚類算法 |
| cluster.DBSCAN([eps,?min_samples,?metric,?...]) | 從矢量陣列或距離矩陣執行DBSCAN聚類 |
| cluster.FeatureAgglomeration([n_clusters,?...]) | 聚集特征 |
| cluster.KMeans([n_clusters,?init,?n_init,?...]) | K均值聚類 |
| cluster.MiniBatchKMeans([n_clusters,?init,?...]) | 小批量K均值聚類 |
| cluster.MeanShift([bandwidth,?seeds,?...]) | 使用平坦內核的平均移位聚類 |
| cluster.SpectralClustering([n_clusters,?...]) | 將聚類應用于對規范化拉普拉斯算子的投影 |
?
函數
| cluster.estimate_bandwidth(X[,?quantile,?...]) | 估計與平均移位算法一起使用的帶寬 |
| cluster.k_means(X,?n_clusters[,?init,?...]) | K均值聚類算法 |
| cluster.ward_tree(X[,?connectivity,?...]) | 基于特征矩陣的區域聚類 |
| cluster.affinity_propagation(S[,?...]) | 執行親和度傳播數據聚類 |
| cluster.dbscan(X[,?eps,?min_samples,?...]) | 從矢量陣列或距離矩陣執行DBSCAN聚類 |
| cluster.mean_shift(X[,?bandwidth,?seeds,?...]) | 使用平坦的內核執行數據的平均移位聚類 |
| cluster.spectral_clustering(affinity[,?...]) | 將聚類應用于對規范化拉普拉斯算子的投影 |
?
sklearn.cluster.bicluster: Biclustering(雙聚類)
光譜雙聚類算法。
作者:Kemal Eren許可證:BSD 3條款
用戶指南:有關詳細信息,請參閱Biclustering部分。
類
| SpectralBiclustering([n_clusters,?method,?...]) | 光譜雙聚類(Kluger,2003) |
| SpectralCoclustering([n_clusters,?...]) | 光譜共聚焦算法(Dhillon,2001) |
?
sklearn.covariance: Covariance Estimators(協方差估計)
該sklearn.covariance模塊包括方法和算法,以魯棒地估計給定一組點的特征的協方差。定義為協方差的倒數的精度矩陣也被估計。協方差估計與高斯圖形模型的理論密切相關。
用戶指南:有關詳細信息,請參見協方差估計部分。
| covariance.EmpiricalCovariance([...]) | 最大似然協方差估計 |
| covariance.EllipticEnvelope([...]) | 用于檢測高斯分布數據集中異常值的對象 |
| covariance.GraphLasso([alpha,?mode,?tol,?...]) | 具有l1懲罰估計量的稀疏逆協方差估計 |
| covariance.GraphLassoCV([alphas,?...]) | 稀疏逆協方差與交叉驗證的l1罰款的選擇 |
| covariance.LedoitWolf([store_precision,?...]) | LedoitWolf估計 |
| covariance.MinCovDet([store_precision,?...]) | 最小協方差決定因素(MCD):協方差的robust估計 |
| covariance.OAS([store_precision,?...]) | Oracle近似收縮估計 |
| covariance.ShrunkCovariance([...]) | 協變量估計與收縮 |
| covariance.empirical_covariance(X[,?...]) | 計算最大似然協方差估計 |
| covariance.ledoit_wolf(X[,?assume_centered,?...]) | 估計縮小的Ledoit-Wolf協方差矩陣 |
| covariance.shrunk_covariance(emp_cov[,?...]) | 計算對角線上收縮的協方差矩陣 |
| covariance.oas(X[,?assume_centered]) | 使用Oracle近似收縮算法估計協方差 |
| covariance.graph_lasso(emp_cov,?alpha[,?...]) | l1懲罰協方差估計 |
?
sklearn.model_selection: Model Selection(模型選擇)
用戶指南:請參閱交叉驗證:評估估計器性能,調整估計器的超參數和?學習曲線部分以獲取更多詳細信息。
分割器類
| model_selection.KFold([n_splits,?shuffle,?...]) | K-折疊交叉驗證器 |
| model_selection.GroupKFold([n_splits]) | 具有非重疊組的K-fold迭代器變體 |
| model_selection.StratifiedKFold([n_splits,?...]) | 分層K-折疊交叉驗證器 |
| model_selection.LeaveOneGroupOut() | 離開一組交叉驗證器 |
| model_selection.LeavePGroupsOut(n_groups) | 離開P組交叉驗證器 |
| model_selection.LeaveOneOut() | 一次性交叉驗證器 |
| model_selection.LeavePOut(p) | Leave-P-Out交叉驗證器 |
| model_selection.ShuffleSplit([n_splits,?...]) | 隨機置換交叉驗證器 |
| model_selection.GroupShuffleSplit([...]) | 隨機組 - 交叉驗證迭代器 |
| model_selection.StratifiedShuffleSplit([...]) | 分層ShuffleSplit交叉驗證器 |
| model_selection.PredefinedSplit(test_fold) | 預定義分裂交叉驗證器 |
| model_selection.TimeSeriesSplit([n_splits]) | 時間序列交叉驗證器 |
?
分割函數
| model_selection.train_test_split(\*arrays,?...) | 將陣列或矩陣拆分成隨機列和測試子集 |
| model_selection.check_cv([cv,?y,?classifier]) | 用于構建交叉驗證器的輸入檢查器實用程序 |
?
超參數優化
| model_selection.GridSearchCV(estimator,?...) | 對估計器的指定參數值進行詳盡搜索 |
| model_selection.RandomizedSearchCV(...[,?...]) | 隨機搜索超參數 |
| model_selection.ParameterGrid(param_grid) | 每個參數的網格具有離散數量的值 |
| model_selection.ParameterSampler(...[,?...]) | 發電機對從給定分布采樣的參數 |
| model_selection.fit_grid_point(X,?y,?...[,?...]) | 適合一組參數 |
?
模型驗證
| model_selection.cross_val_score(estimator,?X) | 通過交叉驗證評估分數 |
| model_selection.cross_val_predict(estimator,?X) | 為每個輸入數據點生成交叉驗證的估計 |
| model_selection.permutation_test_score(...) | 評估具有置換的交叉驗證分數的意義 |
| model_selection.learning_curve(estimator,?X,?y) | 學習曲線 |
| model_selection.validation_curve(estimator,?...) | 驗證曲線 |
?
sklearn.datasets: Datasets(數據集)
該sklearn.datasets模塊包括用于加載數據集的實用程序,包括加載和獲取流行參考數據集的方法。它還具有一些人工數據生成器。
用戶指南:有關詳細信息,請參閱數據集加載實用程序部分。
裝載機
| datasets.clear_data_home([data_home]) | 刪除數據家庭緩存的所有內容 |
| datasets.get_data_home([data_home]) | 返回scikit-learn數據目錄的路徑 |
| datasets.fetch_20newsgroups([data_home,?...]) | 加載20個新聞組數據集中的文件名和數據 |
| datasets.fetch_20newsgroups_vectorized([...]) | 加載20個新聞組數據集并將其轉換為tf-idf向量 |
| datasets.load_boston([return_X_y]) | 加載并返回波士頓房價數據集(回歸) |
| datasets.load_breast_cancer([return_X_y]) | 加載并返回乳腺癌威斯康星數據集(分類) |
| datasets.load_diabetes([return_X_y]) | 加載并返回糖尿病數據集(回歸) |
| datasets.load_digits([n_class,?return_X_y]) | 加載并返回數字數據集(分類) |
| datasets.load_files(container_path[,?...]) | 加載具有子文件夾名稱類別的文本文件 |
| datasets.load_iris([return_X_y]) | 加載并返回虹膜數據集(分類) |
| datasets.fetch_lfw_pairs([subset,?...]) | 在野外(LFW)對數據集中的標記面的裝載程序 |
| datasets.fetch_lfw_people([data_home,?...]) | 野外(LFW)人物數據集中的標記面的裝載程序 |
| datasets.load_linnerud([return_X_y]) | 加載并返回linnerud數據集(多元回歸) |
| datasets.mldata_filename(dataname) | 轉換mldata.org文件名中的數據集的原始名稱 |
| datasets.fetch_mldata(dataname[,?...]) | 獲取mldata.org數據集 |
| datasets.fetch_olivetti_faces([data_home,?...]) | Olivetti的裝載機面向AT&T的數據集 |
| datasets.fetch_california_housing([...]) | 來自StatLib的加州住房數據集的裝載機 |
| datasets.fetch_covtype([data_home,?...]) | 加載封面類型數據集,必要時下載 |
| datasets.fetch_kddcup99([subset,?shuffle,?...]) | 加載并返回kddcup 99數據集(分類) |
| datasets.fetch_rcv1([data_home,?subset,?...]) | 加載RCV1 multilabel數據集,必要時下載 |
| datasets.load_mlcomp(name_or_id[,?set_,?...]) | 加載從http://mlcomp.org下載的數據集 |
| datasets.load_sample_image(image_name) | 加載單個樣本圖像的numpy數組 |
| datasets.load_sample_images() | 加載樣品圖像進行圖像處理 |
| datasets.fetch_species_distributions([...]) | 來自Phillips等的物種分布數據集的裝載機 |
| datasets.load_svmlight_file(f[,?n_features,?...]) | 將svmlight / libsvm格式的數據集加載到稀疏的CSR矩陣中 |
| datasets.load_svmlight_files(files[,?...]) | 從SVMlight格式的多個文件加載數據集 |
| datasets.dump_svmlight_file(X,?y,?f[,?...]) | 以svmlight / libsvm文件格式轉儲數據集 |
?
樣本生成器
| datasets.make_blobs([n_samples,?n_features,?...]) | 生成用于聚類的各向同性高斯斑點 |
| datasets.make_classification([n_samples,?...]) | 生成隨機n類分類問題 |
| datasets.make_circles([n_samples,?shuffle,?...]) | 在2d中制作一個包含較小圓的大圓 |
| datasets.make_friedman1([n_samples,?...]) | 產生“Friedman#1”回歸問題 |
| datasets.make_friedman2([n_samples,?noise,?...]) | 產生“Friedman#2”回歸問題 |
| datasets.make_friedman3([n_samples,?noise,?...]) | 產生“Friedman#3”回歸問題 |
| datasets.make_gaussian_quantiles([mean,?...]) | 通過分位數生成各向同性高斯和標簽樣本 |
| datasets.make_hastie_10_2([n_samples,?...]) | 生成Hastie等人使用的二進制分類數據 |
| datasets.make_low_rank_matrix([n_samples,?...]) | 生成具有鐘形奇異值的大多數低階矩陣 |
| datasets.make_moons([n_samples,?shuffle,?...]) | 使兩個交錯半圈 |
| datasets.make_multilabel_classification([...]) | 產生一個隨機多標簽分類問題 |
| datasets.make_regression([n_samples,?...]) | 產生隨機回歸問題 |
| datasets.make_s_curve([n_samples,?noise,?...]) | 生成S曲線數據集 |
| datasets.make_sparse_coded_signal(n_samples,?...) | 生成信號作為字典元素的稀疏組合 |
| datasets.make_sparse_spd_matrix([dim,?...]) | 產生一個稀疏的對稱確定正矩陣 |
| datasets.make_sparse_uncorrelated([...]) | 生成稀疏不相關設計的隨機回歸問題 |
| datasets.make_spd_matrix(n_dim[,?random_state]) | 產生一個隨機對稱,正定矩陣 |
| datasets.make_swiss_roll([n_samples,?noise,?...]) | 生成瑞士卷數據集 |
| datasets.make_biclusters(shape,?n_clusters) | 生成一個具有恒定塊對角線結構的陣列,用于二聚體 |
| datasets.make_checkerboard(shape,?n_clusters) | 生成具有塊棋盤結構的數組,用于雙向聚集 |
?
sklearn.decomposition: Matrix Decomposition(矩陣分解)
該sklearn.decomposition模塊包括矩陣分解算法,其中包括PCA,NMF或ICA。該模塊的大多數算法可以被認為是降維技術。
用戶指南:有關詳細信息,請參閱組件中的分解信號(矩陣分解問題)部分。
| decomposition.PCA([n_components,?copy,?...]) | 主成分分析(PCA) |
| decomposition.IncrementalPCA([n_components,?...]) | 增量主成分分析(IPCA) |
| decomposition.ProjectedGradientNMF(\*args,?...) | 非負矩陣因子分解(NMF) |
| decomposition.KernelPCA([n_components,?...]) | 內核主成分分析(KPCA) |
| decomposition.FactorAnalysis([n_components,?...]) | 因子分析(FA) |
| decomposition.FastICA([n_components,?...]) | FastICA:獨立分量分析的快速算法。 |
| decomposition.TruncatedSVD([n_components,?...]) | 使用截斷的SVD(也稱為LSA)進行尺寸縮小 |
| decomposition.NMF([n_components,?init,?...]) | 非負矩陣因子分解(NMF) |
| decomposition.SparsePCA([n_components,?...]) | 稀疏主成分分析(SparsePCA) |
| decomposition.MiniBatchSparsePCA([...]) | 小批量稀疏主成分分析 |
| decomposition.SparseCoder(dictionary[,?...]) | 稀疏編碼 |
| decomposition.DictionaryLearning([...]) | 詞典學習 |
| decomposition.MiniBatchDictionaryLearning([...]) | 小批量字典學習 |
| decomposition.LatentDirichletAllocation([...]) | 潛在的Dirichlet分配與在線變分貝葉斯算法 |
| decomposition.fastica(X[,?n_components,?...]) | 執行快速獨立成分分析 |
| decomposition.dict_learning(X,?n_components,?...) | 解決詞典學習矩陣分解問題 |
| decomposition.dict_learning_online(X[,?...]) | 在線解決詞典學習矩陣分解問題 |
| decomposition.sparse_encode(X,?dictionary[,?...]) | 稀疏編碼 |
?
sklearn.dummy: Dummy estimators(虛擬估計)
用戶指南:有關詳細信息,請參閱模型評估:量化預測部分的質量部分。
?
| dummy.DummyClassifier([strategy,?...]) | DummyClassifier是使用簡單規則進行預測的分類器 |
| dummy.DummyRegressor([strategy,?constant,?...]) | DummyRegressor是使用簡單規則進行預測的倒數 |
?
sklearn.ensemble: Ensemble Methods(集成方法)
該sklearn.ensemble模塊包括用于分類,回歸和異常檢測的基于集成的方法。
用戶指南:有關詳細信息,請參閱“?集成方法”部分。
| ensemble.AdaBoostClassifier([...]) | 一個AdaBoost分類器 |
| ensemble.AdaBoostRegressor([base_estimator,?...]) | AdaBoost回歸器 |
| ensemble.BaggingClassifier([base_estimator,?...]) | Bagging分類器 |
| ensemble.BaggingRegressor([base_estimator,?...]) | Bagging回歸器 |
| ensemble.ExtraTreesClassifier([...]) | 一個額外的樹分類器 |
| ensemble.ExtraTreesRegressor([n_estimators,?...]) | 一個額外的樹回歸器 |
| ensemble.GradientBoostingClassifier([loss,?...]) | 梯度提升分類 |
| ensemble.GradientBoostingRegressor([loss,?...]) | 漸變提升回歸 |
| ensemble.IsolationForest([n_estimators,?...]) | 隔離森林算法 |
| ensemble.RandomForestClassifier([...]) | 隨機森林分類器 |
| ensemble.RandomTreesEmbedding([...]) | 一個完全隨機的樹的集成 |
| ensemble.RandomForestRegressor([...]) | 隨機森林回歸器 |
| ensemble.VotingClassifier(estimators[,?...]) | 軟投票/多數規則分類器 |
部分依賴
樹組合的部分依賴圖
| ensemble.partial_dependence.partial_dependence(...) | 部分依賴target_variables |
| ensemble.partial_dependence.plot_partial_dependence(...) | 部分依賴圖features |
?
sklearn.exceptions: Exceptions and warnings(異常和警告)
該sklearn.exceptions模塊包括在scikit學習中使用的所有自定義警告和錯誤類。
| exceptions.NotFittedError | 如果在擬合前使用估計器,則提升異常類 |
| exceptions.ChangedBehaviorWarning | 用于通知用戶任何行為變化的警告類 |
| exceptions.ConvergenceWarning | 捕捉收斂問題的自定義警告 |
| exceptions.DataConversionWarning | 警告用于通知代碼中發生的隱式數據轉換 |
| exceptions.DataDimensionalityWarning | 自定義警告,以通知數據維度的潛在問題 |
| exceptions.EfficiencyWarning | 用于通知用戶效率低下的警告 |
| exceptions.FitFailedWarning | 如果在擬合估計器時出現錯誤,則使用警告類 |
| exceptions.NonBLASDotWarning | 點操作不使用BLAS時使用的警告 |
| exceptions.UndefinedMetricWarning | 度量無效時使用的警告 |
?
sklearn.feature_extraction: Feature Extraction(特征提取)
該sklearn.feature_extraction模塊處理原始數據的特征提取。它目前包括從文本和圖像中提取特征的方法。
用戶指南:有關詳細信息,請參閱特征提取部分。
| feature_extraction.DictVectorizer([dtype,?...]) | 將特征值映射列表轉換為向量 |
| feature_extraction.FeatureHasher([...]) | 實現哈希功能,又稱哈希技巧 |
從圖像
該sklearn.feature_extraction.image子模塊收集實用程序從圖像中提取特征。
| feature_extraction.image.img_to_graph(img[,?...]) | 像素到像素梯度連接的圖形 |
| feature_extraction.image.grid_to_graph(n_x,?n_y) | 像素到像素連接的圖形 |
| feature_extraction.image.extract_patches_2d(...) | 將2D圖像重新整理成一組補丁 |
| feature_extraction.image.reconstruct_from_patches_2d(...) | 從所有補丁重構圖像 |
| feature_extraction.image.PatchExtractor([...]) | 從圖像集中提取補丁 |
?
從文本
該sklearn.feature_extraction.text子模塊收集實用程序從文本文檔建立特征向量。
| feature_extraction.text.CountVectorizer([...]) | 將文本文檔的集合轉換為令牌計數矩陣 |
| feature_extraction.text.HashingVectorizer([...]) | 將文本文檔的集合轉換為令牌發生的矩陣 |
| feature_extraction.text.TfidfTransformer([...]) | 將計數矩陣轉換為標準化的tf或tf-idf表示 |
| feature_extraction.text.TfidfVectorizer([...]) | 將原始文檔的集合轉換為TF-IDF功能的矩陣 |
?
sklearn.feature_selection: Feature Selection(特征選擇)
該sklearn.feature_selection模塊實現特征選擇算法。它目前包括單變量篩選方法和遞歸特征消除算法。
用戶指南:有關詳細信息,請參閱功能選擇部分。
| feature_selection.GenericUnivariateSelect([...]) | 具有可配置策略的單變量特征選擇器 |
| feature_selection.SelectPercentile([...]) | 根據最高分數百分位數選擇功能 |
| feature_selection.SelectKBest([score_func,?k]) | 根據k最高分選擇功能 |
| feature_selection.SelectFpr([score_func,?alpha]) | 過濾器:根據FPR測試選擇低于alpha的p值 |
| feature_selection.SelectFdr([score_func,?alpha]) | 過濾器:為估計的錯誤發現率選擇p值 |
| feature_selection.SelectFromModel(estimator) | 元變壓器,用于根據重要性權重選擇特征 |
| feature_selection.SelectFwe([score_func,?alpha]) | 過濾器:選擇對應于同系誤差率的p值 |
| feature_selection.RFE(estimator[,?...]) | 功能排序與遞歸功能消除 |
| feature_selection.RFECV(estimator[,?step,?...]) | 功能排序與遞歸功能消除和交叉驗證選擇最佳數量的功能 |
| feature_selection.VarianceThreshold([threshold]) | 功能選擇器可刪除所有低方差特征 |
| feature_selection.chi2(X,?y) | 計算每個非負特征和類之間的平方統計 |
| feature_selection.f_classif(X,?y) | 計算提供的樣本的方差分析F值 |
| feature_selection.f_regression(X,?y[,?center]) | 單變量線性回歸測試 |
| feature_selection.mutual_info_classif(X,?y) | 估計離散目標變量的互信息 |
| feature_selection.mutual_info_regression(X,?y) | 估計連續目標變量的互信息 |
?
sklearn.gaussian_process: Gaussian Processes(高斯過程)
該sklearn.gaussian_process模塊實現了基于高斯過程的回歸和分類。
用戶指南:有關詳細信息,請參閱高斯過程部分。
| gaussian_process.GaussianProcessRegressor([...]) | 高斯過程回歸(GPR) |
| gaussian_process.GaussianProcessClassifier([...]) | 基于拉普拉斯逼近的高斯過程分類(GPC) |
內核:
| gaussian_process.kernels.Kernel | 所有內核的基類 |
| gaussian_process.kernels.Sum(k1,?k2) | 兩個內核k1和k2的和核k1 + k2 |
| gaussian_process.kernels.Product(k1,?k2) | 兩個內核k1和k2的產品內核k1 * k2 |
| gaussian_process.kernels.Exponentiation(...) | 通過給定指數來指定內核 |
| gaussian_process.kernels.ConstantKernel([...]) | 恒定內核 |
| gaussian_process.kernels.WhiteKernel([...]) | 白內核 |
| gaussian_process.kernels.RBF([length_scale,?...]) | 徑向基函數核(又稱平方指數核) |
| gaussian_process.kernels.Matern([...]) | Matern 內核. |
| gaussian_process.kernels.RationalQuadratic([...]) | 理性二次內核 |
| gaussian_process.kernels.ExpSineSquared([...]) | 正弦平方內核 |
| gaussian_process.kernels.DotProduct([...]) | Dot-Product內核 |
| gaussian_process.kernels.PairwiseKernel([...]) | 在sklearn.metrics.pairwise中的內核包裝器 |
| gaussian_process.kernels.CompoundKernel(kernels) | 內核由一組其他內核組成 |
| gaussian_process.kernels.Hyperparameter | 內核超參數的指定形式為namedtuple |
?
sklearn.isotonic: Isotonic regression(等式回歸)
用戶指南:有關詳細信息,請參閱等滲回歸部分。
| isotonic.IsotonicRegression([y_min,?y_max,?...]) | 等滲回歸模型 |
| isotonic.isotonic_regression(y[,?...]) | 求解等滲回歸模型: |
| isotonic.check_increasing(x,?y) | 確定y是否與x單調相關 |
?
sklearn.kernel_approximation?Kernel Approximation(內核近似)
該sklearn.kernel_approximation模塊基于傅里葉變換實現幾個近似核特征圖。
用戶指南:有關更多詳細信息,請參閱內核近似部分。
| kernel_approximation.AdditiveChi2Sampler([...]) | 加性chi2核的近似特征圖 |
| kernel_approximation.Nystroem([kernel,?...]) | 使用訓練數據的子集近似一個內核映射 |
| kernel_approximation.RBFSampler([gamma,?...]) | 通過其傅立葉變換的Monte Carlo近似近似RBF核的特征圖 |
| kernel_approximation.SkewedChi2Sampler([...]) | 通過其傅立葉變換的蒙特卡羅近似近似的“偏斜卡方”核的特征圖 |
?
sklearn.kernel_ridge?Kernel Ridge Regression(內核嶺回歸)
模塊sklearn.kernel_ridge實現內核脊回歸。
用戶指南:有關更多詳細信息,請參閱Kernel ridge回歸部分。
| kernel_ridge.KernelRidge([alpha,?kernel,?...]) | 內核嶺回歸 |
?
sklearn.discriminant_analysis: Discriminant Analysis(判別分析)
線性判別分析和二次判別分析
用戶指南:有關詳細信息,請參閱線性和二次判別分析部分。
| discriminant_analysis.LinearDiscriminantAnalysis([...]) | 線性判別分析 |
| discriminant_analysis.QuadraticDiscriminantAnalysis([...]) | 二次判別分析 |
?
sklearn.linear_model: Generalized Linear Models(廣義線性模型)
該sklearn.linear_model模塊實現廣義線性模型。它包括利用最小角度回歸和坐標下降計算的嶺回歸,貝葉斯回歸,套索和彈性網估計。它還實現隨機梯度下降相關算法。
用戶指南:有關詳細信息,請參閱“?廣義線性模型”一節。
| linear_model.ARDRegression([n_iter,?tol,?...]) | 貝葉斯ARD回歸 |
| linear_model.BayesianRidge([n_iter,?tol,?...]) | 貝葉斯脊回歸 |
| linear_model.ElasticNet([alpha,?l1_ratio,?...]) | 線性回歸與組合L1和L2先驗作為正則化器 |
| linear_model.ElasticNetCV([l1_ratio,?eps,?...]) | 彈性網模型沿正則化路徑迭代擬合 |
| linear_model.HuberRegressor([epsilon,?...]) | 線性回歸模型,對離群值是robust |
| linear_model.Lars([fit_intercept,?verbose,?...]) | 最小角度回歸模型 |
| linear_model.LarsCV([fit_intercept,?...]) | 交叉驗證的最小二乘回歸模型 |
| linear_model.Lasso([alpha,?fit_intercept,?...]) | 線性模型訓練用L1作為矯正器(又名拉索) |
| linear_model.LassoCV([eps,?n_alphas,?...]) | 拉索線性模型,沿正則化路徑迭代擬合 |
| linear_model.LassoLars([alpha,?...]) | Lasso模型也適合最小角度回歸 |
| linear_model.LassoLarsCV([fit_intercept,?...]) | 使用LARS算法進行交叉驗證的Lasso |
| linear_model.LassoLarsIC([criterion,?...]) | Lasso模型適合Lars使用BIC或AIC進行型號選擇 |
| linear_model.LinearRegression([...]) | 普通最小二乘線性回歸 |
| linear_model.LogisticRegression([penalty,?...]) | Logistic回歸(又名logit,MaxEnt)分類器 |
| linear_model.LogisticRegressionCV([Cs,?...]) | Logistic回歸CV(又名logit,MaxEnt)分類器 |
| linear_model.MultiTaskLasso([alpha,?...]) | 用L1 / L2混合規范訓練的多任務Lasso模型作為正則化器 |
| linear_model.MultiTaskElasticNet([alpha,?...]) | 用L1 / L2混合規范訓練的多任務ElasticNet模型作為正則化程序 |
| linear_model.MultiTaskLassoCV([eps,?...]) | 多任務L1 / L2 Lasso內置交叉驗證 |
| linear_model.MultiTaskElasticNetCV([...]) | 多任務L1 / L2 ElasticNet內置交叉驗證 |
| linear_model.OrthogonalMatchingPursuit([...]) | 正交匹配追蹤模型(OMP) |
| linear_model.OrthogonalMatchingPursuitCV([...]) | 交叉驗證的正交匹配追蹤模型(OMP) |
| linear_model.PassiveAggressiveClassifier([...]) | 被動侵略分類器 |
| linear_model.PassiveAggressiveRegressor([C,?...]) | 被動侵略者 |
| linear_model.Perceptron([penalty,?alpha,?...]) | 在“?用戶指南”中內容。 |
| linear_model.RandomizedLasso([alpha,?...]) | 隨機拉索 |
| linear_model.RandomizedLogisticRegression([...]) | 隨機邏輯回歸 |
| linear_model.RANSACRegressor([...]) | RANSAC(RANdom SAmple Consensus)算法 |
| linear_model.Ridge([alpha,?fit_intercept,?...]) | 具有l2正則化的線性最小二乘法 |
| linear_model.RidgeClassifier([alpha,?...]) | 分類器使用Ridge回歸 |
| linear_model.RidgeClassifierCV([alphas,?...]) | 里奇分類器內置交叉驗證 |
| linear_model.RidgeCV([alphas,?...]) | 里奇回歸與內置交叉驗證 |
| linear_model.SGDClassifier([loss,?penalty,?...]) | 線性分類器(SVM,邏輯回歸,ao)與SGD訓練 |
| linear_model.SGDRegressor([loss,?penalty,?...]) | 通過使用SGD最小化正則化經驗損失擬合的線性模型 |
| linear_model.TheilSenRegressor([...]) | Theil-Sen估計:強大的多變量回歸模型 |
| linear_model.lars_path(X,?y[,?Xy,?Gram,?...]) | 使用LARS算法計算最小角度回歸或套索路徑[1] |
| linear_model.lasso_path(X,?y[,?eps,?...]) | 計算具有坐標下降的Lasso路徑 |
| linear_model.lasso_stability_path(X,?y[,?...]) | 基于隨機拉索估計的穩定性路徑 |
| linear_model.logistic_regression_path(X,?y) | 為正則化參數列表計算邏輯回歸模型 |
| linear_model.orthogonal_mp(X,?y[,?...]) | 正交匹配追蹤(OMP) |
| linear_model.orthogonal_mp_gram(Gram,?Xy[,?...]) | 革命正交匹配追蹤(OMP) |
?
sklearn.manifold: Manifold Learning(歧管學習)
該sklearn.manifold模塊實現數據嵌入技術。
用戶指南:有關詳細信息,請參閱歧管學習部分。
| manifold.LocallyLinearEmbedding([...]) | 局部線性嵌入 |
| manifold.Isomap([n_neighbors,?n_components,?...]) | Isomap嵌入 |
| manifold.MDS([n_components,?metric,?n_init,?...]) | 多維縮放 |
| manifold.SpectralEmbedding([n_components,?...]) | 用于非線性維數降低的光譜嵌入 |
| manifold.TSNE([n_components,?perplexity,?...]) | t分布隨機相鄰嵌入 |
| manifold.locally_linear_embedding(X,?...[,?...]) | 對數據進行局部線性嵌入分析 |
| manifold.spectral_embedding(adjacency[,?...]) | 將樣本投影在拉普拉斯算子的第一個特征向量上 |
?
sklearn.metrics: Metrics(指標)
有關詳細信息,請參閱模型評估:量化用戶指南的預測部分的質量部分和成對度量度,親和力和內核部分。
該sklearn.metrics模塊包括分數函數,性能度量和成對度量和距離計算。
選型接口
有關詳細信息,請參閱評分參數:定義用戶指南的模型評估規則部分。
| metrics.make_scorer(score_func[,?...]) | 從表現指標或損失函數中取得記分員 |
| metrics.get_scorer(scoring) | ? |
?
分類度量
有關詳細信息,請參閱用戶指南的“?分類指標”部分。
| metrics.accuracy_score(y_true,?y_pred[,?...]) | 準確度分級得分 |
| metrics.auc(x,?y[,?reorder]) | 曲線下的計算面積(AUC)使用梯形規則 |
| metrics.average_precision_score(y_true,?y_score) | 從預測分數計算平均精度(AP) |
| metrics.brier_score_loss(y_true,?y_prob[,?...]) | 計算Brier分數 |
| metrics.classification_report(y_true,?y_pred) | 構建一個顯示主要分類指標的文本報告 |
| metrics.cohen_kappa_score(y1,?y2[,?labels,?...]) | 科恩的kappa:衡量標注者間協議的統計 |
| metrics.confusion_matrix(y_true,?y_pred[,?...]) | 計算混淆矩陣來評估分類的準確性 |
| metrics.f1_score(y_true,?y_pred[,?labels,?...]) | 計算F1分數,也稱為平衡F分數或F度量 |
| metrics.fbeta_score(y_true,?y_pred,?beta[,?...]) | 計算F-beta分數 |
| metrics.hamming_loss(y_true,?y_pred[,?...]) | 計算平均漢明損失 |
| metrics.hinge_loss(y_true,?pred_decision[,?...]) | 平均鉸鏈損失(非正規化) |
| metrics.jaccard_similarity_score(y_true,?y_pred) | Jaccard相似系數得分 |
| metrics.log_loss(y_true,?y_pred[,?eps,?...]) | 對數損失,又稱物流損失或交叉熵損失 |
| metrics.matthews_corrcoef(y_true,?y_pred[,?...]) | 計算二進制類的馬修斯相關系數(MCC) |
| metrics.precision_recall_curve(y_true,?...) | 計算不同概率閾值的?precision-recall?對 |
| metrics.precision_recall_fscore_support(...) | 計算每個課程的precision,recall,F度量和支持 |
| metrics.precision_score(y_true,?y_pred[,?...]) | 計算precision |
| metrics.recall_score(y_true,?y_pred[,?...]) | 計算recall |
| metrics.roc_auc_score(y_true,?y_score[,?...]) | 曲線下的計算面積(AUC)來自預測分數 |
| metrics.roc_curve(y_true,?y_score[,?...]) | 計算接收器工作特性(ROC) |
| metrics.zero_one_loss(y_true,?y_pred[,?...]) | 零分類損失 |
?
回歸指標
有關詳細信息,請參閱用戶指南的“回歸指標”部分。
| metrics.explained_variance_score(y_true,?y_pred) | 解釋方差回歸分數函數 |
| metrics.mean_absolute_error(y_true,?y_pred) | 平均絕對誤差回歸損失 |
| metrics.mean_squared_error(y_true,?y_pred[,?...]) | 均方誤差回歸損失 |
| metrics.median_absolute_error(y_true,?y_pred) | 中值絕對誤差回歸損失 |
| metrics.r2_score(y_true,?y_pred[,?...]) | R^2(測定系數)回歸分數函數 |
?
多標簽排名指標
有關更多詳細信息,請參閱用戶指南的“?多標簽排名指標”部分。
| metrics.coverage_error(y_true,?y_score[,?...]) | 覆蓋誤差測量 |
| metrics.label_ranking_average_precision_score(...) | 計算基于排名的平均精度 |
| metrics.label_ranking_loss(y_true,?y_score) | 計算排名損失量 |
?
聚類指標
有關詳細信息,請參閱用戶指南的群集性能評估部分。
該sklearn.metrics.cluster子模塊包含了聚類分析的結果評價指標。有兩種形式的評估:
- 監督,它為每個樣本使用地面真值類別值。
- 無監督,不對和衡量模型本身的“質量”。
| metrics.adjusted_mutual_info_score(...) | 兩個集群之間調整的相互信息 |
| metrics.adjusted_rand_score(labels_true,?...) | 蘭德指數調整機會 |
| metrics.calinski_harabaz_score(X,?labels) | 計算Calinski和Harabaz得分 |
| metrics.completeness_score(labels_true,?...) | 給定一個地面真相的集群標簽的完整度量 |
| metrics.fowlkes_mallows_score(labels_true,?...) | 測量一組點的兩個聚類的相似度 |
| metrics.homogeneity_completeness_v_measure(...) | 一次計算同質性和完整性和V-Measure分數 |
| metrics.homogeneity_score(labels_true,?...) | 給出了一個地面事實的集群標簽的均勻性度量 |
| metrics.mutual_info_score(labels_true,?...) | 兩個集群之間的相互信息 |
| metrics.normalized_mutual_info_score(...) | 兩個集群之間的歸一化互信息 |
| metrics.silhouette_score(X,?labels[,?...]) | 計算所有樣本的平均輪廓系數 |
| metrics.silhouette_samples(X,?labels[,?metric]) | 計算每個樣本的剪影系數 |
| metrics.v_measure_score(labels_true,?labels_pred) | V-measure集群標簽給出了一個基本的真相 |
?
二聚體指標
有關詳細信息,請參閱用戶指南的Biclustering評估部分。| metrics.consensus_score(a,?b[,?similarity]) | 兩組雙核的相似性 |
?
成對指標
有關更多詳細信息,請參閱用戶指南的“?成對度量度,親和力和內核”部分。| metrics.pairwise.additive_chi2_kernel(X[,?Y]) | 計算X和Y中觀測值之間的加性卡方核 |
| metrics.pairwise.chi2_kernel(X[,?Y,?gamma]) | 計算指數卡方核X和Y |
| metrics.pairwise.distance_metrics() | pairwise_distances的有效指標 |
| metrics.pairwise.euclidean_distances(X[,?Y,?...]) | 考慮X(和Y = X)的行作為向量,計算每對向量之間的距離矩陣 |
| metrics.pairwise.kernel_metrics() | pairwise_kernels的有效指標 |
| metrics.pairwise.linear_kernel(X[,?Y]) | 計算X和Y之間的線性內核 |
| metrics.pairwise.manhattan_distances(X[,?Y,?...]) | 計算X和Y中向量之間的L1距離 |
| metrics.pairwise.pairwise_distances(X[,?Y,?...]) | 從矢量數組X和可選Y計算距離矩陣 |
| metrics.pairwise.pairwise_kernels(X[,?Y,?...]) | 計算陣列X和可選陣列Y之間的內核 |
| metrics.pairwise.polynomial_kernel(X[,?Y,?...]) | 計算X和Y之間的多項式內核 |
| metrics.pairwise.rbf_kernel(X[,?Y,?gamma]) | 計算X和Y之間的rbf(高斯)內核 |
| metrics.pairwise.sigmoid_kernel(X[,?Y,?...]) | 計算X和Y之間的S形內核 |
| metrics.pairwise.cosine_similarity(X[,?Y,?...]) | 計算X和Y中樣本之間的余弦相似度 |
| metrics.pairwise.cosine_distances(X[,?Y]) | 計算X和Y中樣本之間的余弦距離 |
| metrics.pairwise.laplacian_kernel(X[,?Y,?gamma]) | 計算X和Y之間的拉普拉斯核 |
| metrics.pairwise_distances(X[,?Y,?metric,?...]) | 從矢量數組X和可選Y計算距離矩陣 |
| metrics.pairwise_distances_argmin(X,?Y[,?...]) | 計算一點與一組點之間的最小距離 |
| metrics.pairwise_distances_argmin_min(X,?Y) | 計算一點與一組點之間的最小距離 |
| metrics.pairwise.paired_euclidean_distances(X,?Y) | 計算X與Y之間的配對歐氏距離 |
| metrics.pairwise.paired_manhattan_distances(X,?Y) | 計算X和Y中向量之間的L1距離 |
| metrics.pairwise.paired_cosine_distances(X,?Y) | 計算X和Y之間的配對余弦距離 |
| metrics.pairwise.paired_distances(X,?Y[,?metric]) | 計算X和Y之間的配對距離 |
?
sklearn.mixture: Gaussian Mixture Models(高斯混合模型)
該sklearn.mixture模塊實現混合建模算法。
用戶指南:有關詳細信息,請參閱高斯混合模型部分。
| mixture.GaussianMixture([n_components,?...]) | 高斯混合 |
| mixture.BayesianGaussianMixture([...]) | 高斯混合變分貝葉斯估計 |
?
sklearn.multiclass: Multiclass and multilabel classification(多類和多標簽分類)
多類和多標簽分類策略
該模塊實現了多類學習算法:
- one-vs-the-rest / one-vs-all
- one-vs-one
- 糾錯輸出代碼
該模塊中提供的估計量是元估計器:它們需要在其構造函數中提供基本估計器。例如,可以使用這些估計器將二進制分類器或回歸器轉換為多類分類器。也可以將這些估計器與多類估計器一起使用,希望它們的準確性或運行時性能得到改善。
scikit-learn中的所有分類器實現多類分類;?您只需要使用此模塊即可嘗試使用自定義多類策略。
一對一的元分類器也實現了一個predict_proba方法,只要這種方法由基類分類器實現即可。該方法在單個標簽和多重標簽的情況下返回類成員資格的概率。注意,在多重標簽的情況下,概率是給定樣本落在給定類中的邊際概率。因此,在多標簽情況下,這些概率在一個給定樣本的所有可能的標簽的總和不會和為1,因為他們在單個標簽的情況下做的。
用戶指南:有關詳細信息,請參閱多類和多標簽算法部分。
| multiclass.OneVsRestClassifier(estimator[,?...]) | One-vs-the-rest (OvR)?多類/多標簽策略 |
| multiclass.OneVsOneClassifier(estimator[,?...]) | One-vs-one?多類策略 |
| multiclass.OutputCodeClassifier(estimator[,?...]) | (錯誤校正)輸出代碼多類策略 |
?
sklearn.multioutput: Multioutput regression and classification(多輸出回歸和分類)
該模塊實現多輸出回歸和分類。
該模塊中提供的估計量是元估計器:它們需要在其構造函數中提供基本估計器。元估計器將單輸出估計器擴展到多輸出估計器。
用戶指南:有關詳細信息,請參閱多類和多標簽算法部分。
| multioutput.MultiOutputRegressor(estimator) | 多目標回歸 |
| multioutput.MultiOutputClassifier(estimator) | 多目標分類 |
?
sklearn.naive_bayes: Naive Bayes(樸素貝葉斯)
該sklearn.naive_bayes模塊實現樸素貝葉斯算法。這些是基于應用貝葉斯定理與強(天真)特征獨立假設的監督學習方法。
用戶指南:有關詳細信息,請參閱“?樸素貝葉斯”部分。
| naive_bayes.GaussianNB([priors]) | 高斯樸素貝葉斯(GaussianNB) |
| naive_bayes.MultinomialNB([alpha,?...]) | 樸素貝葉斯分類器多項式模型 |
| naive_bayes.BernoulliNB([alpha,?binarize,?...]) | 樸素貝葉斯分類器多變量伯努利模型 |
?
sklearn.neighbors: Nearest Neighbors(最近鄰)
該sklearn.neighbors模塊實現了k-最近鄰居算法。
用戶指南:有關更多詳細信息,請參閱最近鄰居部分。
| neighbors.NearestNeighbors([n_neighbors,?...]) | 無監督學習者實施鄰居搜索 |
| neighbors.KNeighborsClassifier([...]) | 執行k-最近鄰居的分類器投票 |
| neighbors.RadiusNeighborsClassifier([...]) | 分類器在給定半徑內的鄰居中執行投票 |
| neighbors.KNeighborsRegressor([n_neighbors,?...]) | 基于k最近鄰的回歸 |
| neighbors.RadiusNeighborsRegressor([radius,?...]) | 基于固定半徑內的鄰居的回歸 |
| neighbors.NearestCentroid([metric,?...]) | 最重心分類器 |
| neighbors.BallTree | BallTree用于快速泛化N點問題 |
| neighbors.KDTree | KDTree用于快速泛化的N點問題 |
| neighbors.LSHForest([n_estimators,?radius,?...]) | 使用LSH森林執行近似最近鄰搜索 |
| neighbors.DistanceMetric | DistanceMetric類 |
| neighbors.KernelDensity([bandwidth,?...]) | 核密度估計 |
| neighbors.kneighbors_graph(X,?n_neighbors[,?...]) | 計算X中k個鄰居的(加權)圖 |
| neighbors.radius_neighbors_graph(X,?radius) | 計算X中的點的鄰居的(加權)圖 |
?
sklearn.neural_network: Neural network models(神經網絡模型)
該sklearn.neural_network模塊包括基于神經網絡的模型。
用戶指南:有關詳細信息,請參閱神經網絡模型(受監督)和神經網絡模型(無監督)部分。
| neural_network.BernoulliRBM([n_components,?...]) | 伯努利限制玻爾茲曼機(RBM) |
| neural_network.MLPClassifier([...]) | 多層感知器分類器 |
| neural_network.MLPRegressor([...]) | 多層感知器回歸 |
?
sklearn.calibration: Probability Calibration(概率校準)
校準預測概率。
用戶指南:有關詳細信息,請參閱概率校準部分。
| calibration.CalibratedClassifierCV([...]) | 等滲回歸或乙狀結構的概率校準 |
| calibration.calibration_curve(y_true,?y_prob) | 計算校準曲線的真實和預測概率 |
?
sklearn.cross_decomposition: Cross decomposition(交叉分解)
用戶指南:有關詳細信息,請參閱交叉分解部分。
| cross_decomposition.PLSRegression([...]) | PLS回歸 |
| cross_decomposition.PLSCanonical([...]) | PLSCanonical實現了原始Wold算法的2塊規范PLS [Tenenhaus 1998] p.204,在[Wegelin 2000]中被稱為PLS-C2A |
| cross_decomposition.CCA([n_components,?...]) | CCA規范相關分析 |
| cross_decomposition.PLSSVD([n_components,?...]) | 部分最小二乘SVD |
?
sklearn.pipeline: Pipeline(管道)
該sklearn.pipeline模塊實現實用程序來構建復合估計器,作為變換鏈和估計器鏈。
| pipeline.Pipeline(steps) | 最終估計量的變換管道 |
| pipeline.FeatureUnion(transformer_list[,?...]) | 連接多個變壓器對象的結果 |
| pipeline.make_pipeline(\*steps) | 從給定的估計量構建管道 |
| pipeline.make_union(\*transformers) | 從給定的變壓器構造一個FeatureUnion |
?
sklearn.preprocessing: Preprocessing and Normalization(預處理和規范化)
該sklearn.preprocessing模塊包括縮放,定心,歸一化,二值化和插補方法。
用戶指南:有關詳細信息,請參閱預處理數據部分。
| preprocessing.Binarizer([threshold,?copy]) | 根據閾值對數據進行二值化(將特征值設置為0或1) |
| preprocessing.FunctionTransformer([func,?...]) | 從任意可調用的構造一個變壓器 |
| preprocessing.Imputer([missing_values,?...]) | 用于完成缺失值的插補變壓器 |
| preprocessing.KernelCenterer | 中心一個內核矩陣 |
| preprocessing.LabelBinarizer([neg_label,?...]) | 以一對一的方式對標簽進行二值化 |
| preprocessing.LabelEncoder | 在0和n_classes-1之間編碼標簽 |
| preprocessing.MultiLabelBinarizer([classes,?...]) | 在迭代迭代和多標簽格式之間進行轉換 |
| preprocessing.MaxAbsScaler([copy]) | 按每個特征的最大絕對值進行縮放 |
| preprocessing.MinMaxScaler([feature_range,?copy]) | 通過將每個功能縮放到給定范圍來轉換功能 |
| preprocessing.Normalizer([norm,?copy]) | 將樣品歸一化為單位范數 |
| preprocessing.OneHotEncoder([n_values,?...]) | 使用一個單一的一個K方案來編碼分類整數特征 |
| preprocessing.PolynomialFeatures([degree,?...]) | 生成多項式和交互特征 |
| preprocessing.RobustScaler([with_centering,?...]) | 使用對異常值可靠的統計信息來縮放特征 |
| preprocessing.StandardScaler([copy,?...]) | 通過刪除平均值和縮放到單位方差來標準化特征 |
| preprocessing.add_dummy_feature(X[,?value]) | 增強數據集,帶有額外的虛擬功能 |
| preprocessing.binarize(X[,?threshold,?copy]) | 數組式或scipy.sparse矩陣的布爾閾值 |
| preprocessing.label_binarize(y,?classes[,?...]) | 以?one-vs-all?的方式對標簽進行二值化 |
| preprocessing.maxabs_scale(X[,?axis,?copy]) | 將每個特征縮放到[-1,1]范圍,而不破壞稀疏度 |
| preprocessing.minmax_scale(X[,?...]) | 通過將每個功能縮放到給定范圍來轉換功能 |
| preprocessing.normalize(X[,?norm,?axis,?...]) | 將輸入向量分別縮放到單位范數(向量長度) |
| preprocessing.robust_scale(X[,?axis,?...]) | 沿著任何軸標準化數據集 |
| preprocessing.scale(X[,?axis,?with_mean,?...]) | 沿著任何軸標準化數據集 |
?
sklearn.random_projection: Random projection(隨機投影)
隨機投影變壓器
隨機投影是一種簡單且計算有效的方法,通過交易控制的精確度(作為附加方差)來減少數據的維度,以實現更快的處理時間和更小的模型大小。
控制隨機投影矩陣的維數和分布,以保留數據集的任意兩個樣本之間的成對距離。
隨機投影效率背后的主要理論結果是?Johnson-Lindenstrauss lemma(引用維基百科):
在數學方面,Johnson-Lindenstrauss引理是從高維度到低維度歐幾里德空間的低失真嵌入點的結果。引理指出,高維度空間中的一小部分點可以嵌入到較低維度的空間中,使得點之間的距離幾乎保持不變。用于嵌入的地圖至少為Lipschitz,甚至可以被視為正交投影。用戶指南:有關詳細信息,請參閱隨機投影部分。
| random_projection.GaussianRandomProjection([...]) | 通過高斯隨機投影降低維數 |
| random_projection.SparseRandomProjection([...]) | 通過稀疏隨機投影降低維數 |
| random_projection.johnson_lindenstrauss_min_dim(...) | 找到一個“安全”數量的組件隨機投影到 |
?
sklearn.semi_supervised?Semi-Supervised Learning(半監督學習)
該sklearn.semi_supervised模塊實現半監督學習算法。這些算法使用少量的標記數據和大量未標記的分類任務數據。該模塊包括標簽傳播。
用戶指南:有關詳細信息,請參閱半監督部分。
| semi_supervised.LabelPropagation([kernel,?...]) | 標簽傳播分類器 |
| semi_supervised.LabelSpreading([kernel,?...]) | 用于半監督學習的LabelSpread模型 |
?
sklearn.svm: Support Vector Machines(支持向量機)
該sklearn.svm模塊包括支持向量機算法。
用戶指南:有關詳細信息,請參閱支持向量機部分。
評估者
?
| svm.SVC([C,?kernel,?degree,?gamma,?coef0,?...]) | C支持向量分類 |
| svm.LinearSVC([penalty,?loss,?dual,?tol,?C,?...]) | 線性支持向量分類 |
| svm.NuSVC([nu,?kernel,?degree,?gamma,?...]) | Nu支持向量分類 |
| svm.SVR([kernel,?degree,?gamma,?coef0,?tol,?...]) | Epsilon支持向量回歸 |
| svm.LinearSVR([epsilon,?tol,?C,?loss,?...]) | 線性支持向量回歸 |
| svm.NuSVR([nu,?C,?kernel,?degree,?gamma,?...]) | Nu支持向量回歸 |
| svm.OneClassSVM([kernel,?degree,?gamma,?...]) | 無監督異常檢測 |
| svm.l1_min_c(X,?y[,?loss,?fit_intercept,?...]) | 返回C的最低邊界,使得對于C(l1_min_C,無窮大),模型保證不為空 |
?
低級方法
| svm.libsvm.fit | 使用libsvm(低級方法)訓練模型 |
| svm.libsvm.decision_function | 預測余量(這是libsvm的名稱是predict_values) |
| svm.libsvm.predict | 給定模型預測X的目標值(低級方法) |
| svm.libsvm.predict_proba | 預測概率 |
| svm.libsvm.cross_validation | 交叉驗證程序的綁定(低級程序) |
?
sklearn.tree: Decision Trees(決策樹)
該sklearn.tree模塊包括用于分類和回歸的基于決策樹的模型。
用戶指南:有關詳細信息,請參閱決策樹部分。
| tree.DecisionTreeClassifier([criterion,?...]) | 決策樹分類器 |
| tree.DecisionTreeRegressor([criterion,?...]) | 決策樹倒數 |
| tree.ExtraTreeClassifier([criterion,?...]) | 一個非常隨機的樹分類器 |
| tree.ExtraTreeRegressor([criterion,?...]) | 一個非常隨機的樹倒數 |
| tree.export_graphviz | 以DOT格式導出決策樹 |
?
sklearn.utils: Utilities(工具)
該sklearn.utils模塊包括各種實用程序。
開發人員指南:有關詳細信息,請參閱實用程序開發人員頁面。
| utils.check_random_state(seed) | 將種子轉換成np.random.RandomState實例 |
| utils.estimator_checks.check_estimator(Estimator) | 檢查估計是否符合scikit學習慣例 |
| utils.resample(\*arrays,?\*\*options) | 以一致的方式重新采樣數組或稀疏矩陣 |
| utils.shuffle(\*arrays,?\*\*options) | 以一致的方式排列數組或稀疏矩陣 |
?
最近棄用
要在0.19中刪除
| lda.LDA([solver,?shrinkage,?priors,?...]) | 別名?sklearn.discriminant_analysis.LinearDiscriminantAnalysis. |
| qda.QDA([priors,?reg_param,?...]) | 別名?sklearn.discriminant_analysis.QuadraticDiscriminantAnalysis. |
| datasets.load_lfw_pairs(\*args,?\*\*kwargs) | DEPRECATED:函數'load_lfw_pairs'已經在0.17中被棄用,將在0.19中刪除。請改用fetch_lfw_pairs(download_if_missing = False) |
| datasets.load_lfw_people(\*args,?\*\*kwargs) | DEPRECATED:函數'load_lfw_people'在0.17中已被棄用,將在0.19中刪除。請改用fetch_lfw_people(download_if_missing = False) |
?
在0.20中刪除
| grid_search.ParameterGrid(param_grid) | 每個參數的網格具有離散數量的值 |
| grid_search.ParameterSampler(...[,?random_state]) | 發電機對從給定分布采樣的參數 |
| grid_search.GridSearchCV(estimator,?param_grid) | 對估計器的指定參數值進行詳盡搜索 |
| grid_search.RandomizedSearchCV(estimator,?...) | 隨機搜索超參數 |
| cross_validation.LeaveOneOut(n) | 一次性交叉驗證迭代器 |
| cross_validation.LeavePOut(n,?p) | Leave-P-Out交叉驗證迭代器 |
| cross_validation.KFold(n[,?n_folds,?...]) | K-fold交叉驗證迭代器 |
| cross_validation.LabelKFold(labels[,?n_folds]) | 具有非重疊標簽的K-fold迭代器變體 |
| cross_validation.LeaveOneLabelOut(labels) | Leave-One-Label_Out交叉驗證迭代器 |
| cross_validation.LeavePLabelOut(labels,?p) | Leave-P-Label_Out交叉驗證迭代器 |
| cross_validation.LabelShuffleSplit(labels[,?...]) | Shuffle-Labels-Out交叉驗證迭代器 |
| cross_validation.StratifiedKFold(y[,?...]) | 分層K-折疊交叉驗證迭代器 |
| cross_validation.ShuffleSplit(n[,?n_iter,?...]) | 隨機置換交叉驗證迭代器 |
| cross_validation.StratifiedShuffleSplit(y[,?...]) | 分層ShuffleSplit交叉驗證迭代器 |
| cross_validation.PredefinedSplit(test_fold) | 預定義的分割交叉驗證迭代器 |
| decomposition.RandomizedPCA(\*args,?\*\*kwargs) | 主成分分析(PCA)使用隨機SVD |
| gaussian_process.GaussianProcess(\*args,?\*\*kwargs) | 遺留高斯過程模型類 |
| mixture.GMM(\*args,?\*\*kwargs) | 傳統高斯混合模型 |
| mixture.DPGMM(\*args,?\*\*kwargs) | Dirichlet過程高斯混合模型 |
| mixture.VBGMM(\*args,?\*\*kwargs) | 高斯混合模型的變分推理 |
| grid_search.fit_grid_point(X,?y,?estimator,?...) | 適合一組參數 |
| learning_curve.learning_curve(estimator,?X,?y) | 學習曲線 |
| learning_curve.validation_curve(estimator,?...) | 驗證曲線 |
| cross_validation.cross_val_predict(estimator,?X) | 為每個輸入數據點生成交叉驗證的估計 |
| cross_validation.cross_val_score(estimator,?X) | 通過交叉驗證評估分數 |
| cross_validation.check_cv(cv[,?X,?y,?classifier]) | 輸入檢查器實用程序以用戶友好的方式構建簡歷 |
| cross_validation.permutation_test_score(...) | 評估具有置換的交叉驗證分數的意義 |
| cross_validation.train_test_split(\*arrays,?...) | 將陣列或矩陣拆分成隨機列和測試子集 |
總結
以上是生活随笔為你收集整理的sklearn API 文档的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 机器学习实战(用Scikit-learn
- 下一篇: Attention的梳理、随想与尝试