首页 > TAG信息列表 > decision-tree
为什么带有1个估计量的adaboost比简单的决策树要快?
我想比较adaboost和决策树.作为原理上的证明,我将决策树分类器的默认值设置为adaboost中的估计数为1,期望得到与简单决策树相同的结果. 在预测测试标签方面,我确实具有相同的准确性.但是,适合adaboost的拟合时间要短得多,而测试时间要长一些. Adaboost似乎使用与DecisionTreeClassipython-VotingClassifier中的roc_auc,scikit-learn中的RandomForestClassifier(sklearn)
我正在尝试为我构建的硬投票类计算roc_auc.我用可复制的示例介绍代码.现在我想计算roc_auc得分并绘制ROC曲线图,但是不幸的是,当投票=“困难”时,出现以下错误预测_proba不可用 # Voting Ensemble for Classification import pandas from sklearn import datasets from sklearn imjava-Drools:insertLogical和收回
这是我先前的question的后续操作.我有以下形式的决策树: 我想将其转换为Drools Expert中的规则. insertLogical的使用时间为proposed.Drools文档中关于insertLogical的信息为this: insertLogical(new Something()); is similar to insert, but the object will be automaticalpython-如何存储决策树
我尝试了几种不同的方法,在其中找到了一些方法,其中包括制作Node类和嵌套字典,但是我似乎无法使它们正常工作. 目前,我的代码吸收了几行DNA(a,t,g,c),然后将其存储为numpy数组.然后,它找到增益最大的属性,并将数据分成4个新的numpy数组(取决于该属性处出现的a,t,g或c). 我无法创建Python在二叉树中检查叶的路径python在叶中提供数据
可以说我有这棵树: cough Yes / \ No sneezing sneezing Yes / \ No Yes / \ No fpython – 在sklearn DecisionTreeClassifier中修剪不必要的叶子
我使用sklearn.tree.DecisionTreeClassifier来构建决策树.使用最佳参数设置,我得到一个有不必要叶子的树(参见下面的示例图片 – 我不需要概率,所以标记为红色的叶节点是不必要的分割) 是否有任何第三方库用于修剪这些不必要的节点?还是代码片段?我可以写一个,但我无法想象我是第一python – 对scikit学习决策树中的random_state感到困惑
对random_state参数感到困惑,不确定为什么决策树训练需要一些随机性.我的想法,(1)它与随机森林有关吗? (2)是否与分裂训练测试数据集有关?如果是这样,为什么不直接使用训练测试分割方法(http://scikit-learn.org/stable/modules/generated/sklearn.cross_validation.train_test_splitpython – Spark MLib决策树:功能标签的概率?
我可以设法显示我的标签的总概率,例如在显示我的决策树之后,我有一个表: Total Predictions : 65% impressions 30% clicks 5% conversions 但我的问题是通过功能(按节点)查找概率(或计数),例如: if feature1 > 5 if feature2 < 10 Predict Impressionspython – 在scikit-learn中可视化决策树
我正在尝试使用Python中的scikit-learn设计一个简单的决策树(我在Windows操作系统上使用Anaconda的Ipython Notebook和Python 2.7.3)并将其可视化如下: from pandas import read_csv, DataFrame from sklearn import tree from os import system data = read_csv('D:/training.csv如何从scikit-learn决策树中提取决策规则?
我可以从决策树中的受过训练的树中提取基础决策规则(或“决策路径”)作为文本列表吗? 就像是: 如果A> 0.4,那么如果B <0.2那么如果C> 0.8则那么class ='X' 谢谢你的帮助.解决方法:我相信这个答案比其他答案更正确: from sklearn.tree import _tree def tree_to_code(tree, feature_python – GridSearchCV给出ValueError:DecisionTreeRegressor不支持continuous
我正在学习ML并为波士顿房价预测做任务.我有以下代码: from sklearn.metrics import fbeta_score, make_scorer from sklearn.model_selection import GridSearchCV def fit_model(X, y): """ Tunes a decision tree regressor model using GridSearchCV on the input data XPython 2.7中AND-OR树的存储格式
我正在做决策树的一些工作,我正在使用AND-OR树作为表示.我正在为这种树寻找合适的存储格式. 以“t”开头的节点是OR节点,节点以“c”开头是(有序!)AND节点.叶子总是以“p”开头. 最初,每个节点包含两部分:节点名称和节点描述. 图片显示了同一决策树的两种不同表示.基本上我需要两种表python – 长时间运行的决策树模型
我正在使用R中的rpart包运行我的决策树模型.这是我正在做的, >使用read.csv加载我的数据 >删除不需要的列>将我的数据集拆分为训练和测试>在训练集上拟合我的模型 – 这一整天都在运行. 以下是我的数据集的摘要. 'data.frame': 117919 obs. of 7 variables: $Database如何将功能的不确定性纳入机器学习算法?
我使用Scikit Learn的决策树对数据集进行回归. 我的结果非常好,但是我担心的一个问题是许多功能的相对不确定性非常高.我试图放弃具有高度不确定性的案例,但这会显着降低模型的性能. 特征本身是通过实验确定的,因此它们具有相关的实验不确定性.数据本身并不嘈杂. 所以我的问题是,有java – 如何在WEKA中交叉验证后打印预测类
使用分类器完成10倍交叉验证后,如何打印出每个实例的预定类以及这些实例的分布? J48 j48 = new J48(); Evaluation eval = new Evaluation(newData); eval.crossValidateModel(j48, newData, 10, new Random(1)); 当我尝试类似于下面的内容时,它说分类器没有构建. for (int i=0;在sklearn Python的决策树中使用pydot制作图表
我希望这段代码能够创建树的PDF图形. from sklearn import datasets,tree import StringIO import pydot from sklearn.externals.six import StringIO iris = datasets.load_iris() clf = tree.DecisionTreeClassifier() clf = clf.fit(iris['data'],iris['target'java – 根据唯一值将列表拆分为子列表
我有一份清单清单: 列表与LT; ArrayList的<字符串>> D = new ArrayList<>(); 当它被填充时,它可能看起来像:[“A”,“B”,“Y”][“C”,“D”,“Y”][“A”,“D”,“N”] 我想根据唯一属性值将列表列表拆分为分区(比如索引1). 所以索引1的属性有两个唯一值,“B”和“D”,所以我python – 可以在scikit-learn中修改/修剪学过的树吗?
可以在sklearn中访问树参数 tree.tree_.children_left tree.tree_.children_right tree.tree_.threshold tree.tree_.feature 等等 但是,尝试写入这些变量会引发一个不可写的异常 有没有办法修改学习树,或绕过AttributeError不可写?解决方法:属性都是无法覆盖的int数组.您仍然可以