首页 > TAG信息列表 > logistic-regression

Python SKLearn:逻辑回归概率

我正在使用Python SKLearn模块执行逻辑回归.我有一个因变量矢量Y(从M个类中的1个取值)和独立变量矩阵X(具有N个特征).我的代码是 LR = LogisticRegression() LR.fit(X,np.resize(Y,(len(Y)))) 我的问题是,LR.coef_和LR.intercept_代表什么.我最初以为他们持有的

使用sample_weight参数时,sklearn LogisticRegressiondict_proba()给出错误的预测

我正在尝试SciKit学习.我以为我会尝试加权Logistic回归,但是在使用sample_weight参数初始化它时,我从sklearn的LogisticRegression对象中得到了毫无意义的预测. 这是一个演示问题的玩具示例.我建立了一个非常简单的数据集,具有一个功能和一个二进制目标输出. feat target weight

python-scikitlearn中的逻辑回归

您如何处理这样的图形: 使用scikitlearn的LogisticRegression模型.有没有一种方法可以使用scikitlearn和映射为此类图的标准X,y输入轻松地处理这些类型的问题?解决方法:如果您真的想对这种特定设置使用Logistic回归,那么一种有前途的方法是将坐标从笛卡尔系统转换为极地系统.从可视化

如何使用python和scikit结合两个逻辑回归模型?

我是Python和Scikit新手. 我有两个用Scikit创建的Logistic回归模型,我想将它们结合起来以获得新模型.在我看来是这样的: clf1 = LogisticRegression() clf1.fit(X_set, Y_set) clf2 = LogisticRegression() clf2.fit(X_set, Y_set) combined_clf = clf1 + clf2 但是我不知道该怎么

使用逻辑回归进行分类任务的R,statmodel,sklearn的比较

我在R,python statmodels和sklearn中进行了逻辑回归的一些实验.虽然R和statmodels给出的结果是一致的,但sklearn返回的结果有些不一致.我想了解为什么这些结果不同. 据我所知,它可能与木材下使用的优化算法不同. 具体来说,我使用标准的Default数据集(在ISL book中使用).以下Python

python – ValueError:未知标签类型:’unknown’

我尝试运行以下代码.顺便说一句,我是python和sklearn的新手. import pandas as pd import numpy as np from sklearn.linear_model import LogisticRegression # data import and preparation trainData = pd.read_csv('train.csv') train = trainData.values testData = pd.rea

python – predict_proba用于交叉验证的模型

我想用Logistic回归模型预测交叉验证的概率.我知道您可以获得交叉验证分数,但是可以从predict_proba而不是分数返回值吗? # imports from sklearn.linear_model import LogisticRegression from sklearn.cross_validation import (StratifiedKFold, cross_val_score,

Roc曲线和切断点.Python

我运行了逻辑回归模型,并对logit值进行了预测.我用它来获得ROC曲线上的点数: from sklearn import metrics fpr, tpr, thresholds = metrics.roc_curve(Y_test,p) 我知道metrics.roc_auc_score给出了ROC曲线下的面积.谁能告诉我什么命令会找到最佳截止点(阈值)?解决方法:虽然回答

python – 什么是X_train和y_train?

我想开始使用机器学习开发应用程序.我想对文本进行分类 – 垃圾邮件或非垃圾邮件.我有2个文件 – spam.txt,ham.txt – 每个文件包含数千个句子.如果我想使用分类器,那么让我们说LogisticRegression. 例如,正如我在互联网上看到的那样,为了适应我的模型,我需要这样做: `lr = Logi

python – 在hyperopt中设置条件搜索空间的问题

我完全承认我可能在这里设置错误的条件空间但由于某种原因,我根本无法让它运行起来.我试图使用hyperopt来调整逻辑回归模型,并且根据求解器还有一些其他需要探索的参数.如果你选择了liblinear解算器,你可以选择惩罚,根据惩罚,你也可以选择双重.当我尝试在这个搜索空间上运行hyperop

python – 如何在sklearn逻辑回归中应用class_weights?

我对sklearn如何应用我们提供的课程重量感兴趣. documentation没有明确说明应用类权重的位置和方式.阅读源代码也没有帮助(似乎sklearn.svm.liblinear用于优化,我无法读取源代码,因为它是.pyd文件……) 但我想它适用于成本函数:当指定类权重时,相应类的成本将乘以类权重.例如,如果我

python – 多项/条件Logit回归,为什么StatsModel在mlogit包示例上失败?

我试图重现R中mlogit包的多项logit回归的例子. data("Fishing", package = "mlogit") Fish <- mlogit.data(Fishing, varying = c(2:9), shape = "wide", choice = "mode") #a pure "conditional" model summary(mlogit(mode ~ price

如何从MLE logit回归中获取系数?

我有一个statsmodels.discrete.discrete_model.BinaryResultsWrapper,它是运行statsmodels.api.Logit(…).fit()的输出.我可以调用.summary()方法,该方法打印一个结果表,其中系数嵌入在文本中,但我真正需要的是将这些系数存储到变量中供以后使用.我怎样才能做到这一点?关于如何进行

python – 使用sklearn进行Logistic回归

不确定这是否是这个问题的好地方,但我被告知CrossValidated不是.所以,所有这些问题都涉及sklearn,但如果你对逻辑回归有一般的见解,我也很乐意听到它们. 1)数据是否必须标准化(平均0,stdev 1)?2)在sklearn中,如何指定我想要的正则化类型(L1与L2)?请注意,这与惩罚不同;惩罚是指分类错

使用Iris数据集重现LASSO / Logistic回归导致R与Python

我试图在Python中重现以下R结果.在这种特殊情况下,R预测技能低于Python技能,但在我的经验中通常不是这种情况(因此想要在Python中重现结果的原因),所以请在此处忽略该细节. 目的是预测花种(‘versicolor’0或’virginica’1).我们有100个标记样本,每个样本由4个花特征组成:萼片长度,

python – 使用交叉验证评估Logistic回归

我想使用交叉验证来测试/训练我的数据集,并评估逻辑回归模型在整个数据集上的性能,而不仅仅是在测试集上(例如25%). 这些概念对我来说是全新的,我不确定它是否做得对.如果有人能告诉我正确的步骤,我会在错误的地方采取行动,我将不胜感激.我的部分代码如下所示. 另外,如何在当前图形