limit bounds of tuning parameters for linear regression in scikit-learn or statsmodels(SCRICKIT-LEARN或STATS模型中线性回归调整参数的极限)
问题描述
是否可以限制SCRICKIT-LEARN或STATSMODEL中的线性回归调整参数的范围,例如,在statsModels.regression.line_Model.OLS或sklearn.linearModel.LinearRegress中?
http://statsmodels.sourceforge.net/devel/generated/statsmodels.regression.linear_model.OLS.html
http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LinearRegression.html
编辑:
scipy 0.17包括带有绑定约束的scipy.Optimize.leastsq:
http://docs.scipy.org/doc/scipy-0.17.0/reference/generated/scipy.optimize.least_squares.html#scipy.optimize.least_squares
理想情况下,我所希望的是最小化目标误差函数,并最小化调整乘数参数从默认值1.0开始的变化。这可能是目标函数的一部分。请注意,以下是适用于我的框边界的选项列表:
method='trf' or 'dogbox'
loss='cauchy'
f_scale=1e-5 to 1e-2
推荐答案
不确定您所说的"限制调整参数的范围"是什么意思。
如果希望结果组件位于预先指定的范围内,可以尝试
scipy.optimize.least_squares
,这样可以解决最小化F(X)=0.5*sum(Rho(f_i(X)**2),i=0,...,m-1) 受制于lb<;=x<;=ub
如果您担心共线性导致结果分量的大小过大,可以尝试
sklearn.linear_model.Ridge
(或那里的其他正则化线性回归变量之一)。
这篇关于SCRICKIT-LEARN或STATS模型中线性回归调整参数的极限的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!
本文标题为:SCRICKIT-LEARN或STATS模型中线性回归调整参数的极限
- 使用 Cython 将 Python 链接到共享库 2022-01-01
- 计算测试数量的Python单元测试 2022-01-01
- 我如何卸载 PyTorch? 2022-01-01
- 我如何透明地重定向一个Python导入? 2022-01-01
- 使用公司代理使Python3.x Slack(松弛客户端) 2022-01-01
- YouTube API v3 返回截断的观看记录 2022-01-01
- 如何使用PYSPARK从Spark获得批次行 2022-01-01
- ";find_element_by_name(';name';)";和&QOOT;FIND_ELEMENT(BY NAME,';NAME';)";之间有什么区别? 2022-01-01
- CTR 中的 AES 如何用于 Python 和 PyCrypto? 2022-01-01
- 检查具有纬度和经度的地理点是否在 shapefile 中 2022-01-01