实现使用梯度下降法求解Lasso回归(L1正则化线性回归)。Lasso回归通过在损失函数中添加L1正则化项来实现特征选择和防止过拟合。 梯度下降方式使用批量梯度下降。 目标函数: 其中: 是样本数量, 是第 个样本的真实值, 是第 个样本的第 个特征值, 是第 个特征的权重, 是偏置项, 是正则化参数。
输入描述:
函数`l1_regularization_gradient_descent`接收五个参数:1. X:特征矩阵,形状为(n_samples, n_features)2. y:目标值向量3. alpha:正则化参数,默认0.14. learning_rate:学习率,默认0.015. max_iter:最大迭代次数,默认10006. tol:收敛阈值,默认1e-4


输出描述:
返回一个元组,包含:1. weights:特征权重向量2. bias:偏置项结果保留3位小数
示例1

输入

[[1, 2], [2, 4], [3, 5]]
[2, 4, 5]
0.1

输出

[0.061, 0.889] 0.284

备注:
1.对应的输入、输出已给出,您只用实现核心功能函数即可。2.支持numpy、scipy、pandas、scikit-learn库。
加载中...