首页 > TAG信息列表 > linear-regression
此Python代码中的正则线性回归有什么问题?
我用numpy(theta,X是numpy数组)编写了代码: def CostRegFunction(X, y, theta, lambda_): m = len(X) # add bias unit X = np.concatenate((np.ones((m,1)),X),1) H = np.dot(X,theta) J = (1 / (2 * m)) * (np.sum([(H[i] - y[i][0])**2 for i in range(le分段式Python
嗨,我正在尝试找出如何使用分段线性函数拟合这些值.我已经阅读了这个问题,但我无法前进(How to apply piecewise linear fit in Python?).在此示例中,显示了如何为2段情况实现分段功能.但是我需要在三段式的情况下进行操作,如图所示. 我已经编写了这段代码: from scipy import opt在理解python中的Spark MLlib的LinearRegressionWithSGD示例时遇到问题吗?
因此,我是机器学习和Spark的新手,并且正在阅读Spark MLlibs关于回归的文档,尤其是this page处的LinearRegressionWithSGD.我在理解python代码方面有些困难.这就是我到目前为止所了解的-代码加载数据,然后形成labeledpoint.之后,建立模型,然后根据训练数据进行评估,并计算MSE. 现在线性方程的numpy语法
我是numpy的新手,但不是python.对执行此操作的numpy方法有疑问,请考虑: 编辑:更正功能** def _my_function(weights, features, bias): # the pure python way value = 0. for i in range(len(weights)): value += (weights[i]*features[i]) return valuepython-向量线性回归
这是我尝试仅使用numpy和线性代数执行线性回归的尝试: def linear_function(w , x , b): return np.dot(w , x) + b x = np.array([[1, 1,1],[0, 0,0]]) y = np.array([0,1]) w = np.random.uniform(-1,1,(1 , 3)) print(w) learning_rate = .0001 xT = x.T yT = y.T for如何在Python中进行二维回归分析?
首先,我对Python不熟悉,我仍然几乎不了解Python代码的机制.但是我需要通过Python进行一些统计分析. 我尝试了许多方法来弄清楚,但我失败了. >基本上,我有3个数据数组(假设这些数组是X,Y,Z). >我通过绘制散点图对(X,Y)和(Z,Y)进行了一些分析,并使其与数据最匹配,以查看相关性.>№1和Python Sklearn线性回归值错误
香港专业教育学院一直在尝试使用sklearn的线性回归.有时我遇到值错误,有时可以正常工作.我不确定使用哪种方法. 错误消息如下: Traceback (most recent call last): File "<stdin>", line 1, in <module> File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3python – 如何在此图中绘制线性回归线?
enter image description here如何在此图中绘制线性回归线? 这是我的代码: import numpy as np import pandas_datareader.data as web import pandas as pd import datetime import matplotlib.pyplot as plt #get adjusted close price of Tencent from yahoo start = datetime.da为什么在python中解决Xc = y的不同方法在它们不应该时给出不同的解?
我试图解决线性系统Xc = y是方形的.我知道解决这个问题的方法是: >使用逆c =< X ^ -1,y> >使用高斯消元法>使用伪逆 据我所知,这些与我认为的基本事实不符. >首先通过将度数为30的多项式拟合到频率为5的余弦来生成真值参数.所以我有y_truth = X * c_truth.>然后我检查以上三种方法是Java中的anova.lm()是否有等效函数?
我将R中的两个线性模型与Anova进行比较,我想在Java中做同样的事情.为了简化它,我从https://stats.stackexchange.com/questions/48854/why-am-i-getting-different-intercept-values-in-r-and-java-for-simple-linear-regr获取了示例代码并在下面进行了一些修改.模型是test_trait~gpython – 为什么sklearn线性回归对通过(0,0)的直线给出非零截距?
给定y = 3x行的一些数据点: from sklearn import datasets, linear_model X = [[1],[2],[3],[4],[5]] y = [[3],[6],[9],[12],[15]] regr = linear_model.LinearRegression() regr.fit(X,y) 然后: regr.predict([[6], [7], [8], [9], [10]]) 按预期给出: array([[ 18.], [Python / Scikit-learn – 线性回归 – 访问线性回归方程
我使用相同的预测变量组构建了一些不同的线性回归,如下所示: model=LinearRegression() model.fit(X=predictor_train,y=target_train) prediction_train=model.predict(predictor_train) pred=model.predict(main_frame.iloc[-1:,1:]) 为了创建目标变量的预测,我想Scikit算法用这python – numpy:用更多观察结果更新最小二乘的代码
我正在寻找一个基于numpy的普通最小二乘实现,它可以让更多的观察更新拟合.类似于Applied Statistics algorithm AS 274或R的biglm. 如果不这样做,用新行更新QR分解的例程也会引起关注. 有什么指针吗?解决方法:scikits.statsmodels有一个递归OLS,可以更新沙箱中可用于此的反X’X. (仅python – 使用scikit限制线性回归预测值
我正在使用数据集训练线性回归模型,该数据集在区间[0,10]中具有实值标签.我在测试集上的预测值有一些超过10的预测.有没有办法将预测限制在10. 我正在考虑进行条件检查,如果预测超过10,我明确地将其设置为10. 有没有更好的办法?解决方法:如果y是回归对象的预测方法的输出,那么你可以python – scipy linregress:仅计算缩放/斜率参数,截距固定为0
我试图使用scipy.stats.linregress来计算最小二乘意义上的两组数据之间的比例因子.然而,尽管输入xi变量是矢量而不是n×2矩阵,但它给出了截距. 所以,一个简单的代码如下: from scipy import stats from numpy import arrange,array y = [0, 11, 19, 28, 41, 49, 62, 75, 81] xi =python – 处理回归中的未分配(null)特征值(机器学习)?
我想做线性回归分析.我有多个功能.某些功能对数据中的某些项具有未分配(null)值.因为对于某些项目,数据源中缺少某些特定的功能值.为了更清楚,我提供了一些例子: 如您所见,某些项目缺少某些功能的值.现在,我只是将它分配给’Null’,但是在对数据进行线性回归分析时如何处理这些值?我python线性回归按日期预测
我想用简单的线性回归预测未来某个日期的值,但我不能因为日期格式. 这是我的数据框: data_df = date value 2016-01-15 1555 2016-01-16 1678 2016-01-17 1789 ... y = np.asarray(data_df['value']) X = data_df[['date']] X_train, X_test, y_train, y_tesliblinear(在java中)简单的例子是行不通的
我正在尝试操作liblinear库(java),我正在使用一个超级简单的例子,模板找到here. 案例是确定形状是正方形还是矩形. 这是我的代码: import java.io.File; import java.io.IOException; import de.bwaldvogel.liblinear.Feature; import de.bwaldvogel.liblinear.FeatureNode; impor如何使用scikit线性回归模型同时解决几个独立的时间序列
我尝试使用sklearn线性回归模型同时预测多个独立时间序列,但我似乎无法做到正确. 我的数据组织如下:Xn是一个矩阵,其中每行包含4个观测值的预测窗口,yn是Xn每行的目标值. import numpy as np # training data X1=np.array([[-0.31994,-0.32648,-0.33264,-0.33844],[-0.32648,-0.33python – 目标在Scikit的线性回归对象中意味着什么?
我正在使用Scikit对一些随机数据点进行普通线性回归.但是,我很困惑他们在documentation的拟合方法中的目标值是什么意思. 我将X设置为100 x 2(二维)形状的数据点数组.我传递什么作为y参数的输入?解决方法:在这种情况下,“目标”是“因变量”,“响应变量”,“回归”,“测量变量”,“python – 线性回归实现总是比sklearn更糟糕
我在python中实现了梯度下降的线性回归.为了了解它的表现如何,我将它与scikit-learn的LinearRegression()类进行了比较.出于某种原因,sklearn总是比MSE平均表现优于我的程序(我使用Boston Housing数据集进行测试).我知道我目前没有进行梯度检查以检查收敛,但我允许进行多次迭代并将python – 通过椭圆的线性回归显示出意外的行为
我正在空图像上绘制2D椭圆.现在,我想通过椭圆拟合一条线来获得主轴.我知道有很多选择(PCA,图像时刻等),我认为线性回归应该能够胜任.但是,如果椭圆的旋转平行于x轴,它只能“起作用”.为什么是这样?任何对称的点云不应该同等地给出中线吗? 这是我使用的代码: import numpy as np imporjava – 多元回归
为了组合同一变量的3个不同的估计器,我需要在Java中实现多元回归方法(因此3个独立变量和1个因变量).我正在寻找一种简单的方法(就像多元回归方法一样简单).从我所做的搜索来看,我认为最小二乘法应该是一种适当的方法,但我想知道你是否建议任何其他方法.此外,我无法在多变量上下文中