函数`adam_optimizer`接收以下参数:1. f:目标函数2. grad:梯度函数3. x0:初始参数值4. learning_rate:学习率(默认0.001)5. beta1:一阶矩估计的衰减率(默认0.9)6. beta2:二阶矩估计的衰减率(默认0.999)7. epsilon:数值稳定性常数(默认1e-8)8. num_iterations:迭代次数(默认10)
返回一个numpy数组,表示优化后的参数值。
[1.0, 1.0]
[0.99000325 0.99000325]
1.对应的输入、输出已给出,您只用实现核心功能函数即可。2.支持numpy、scipy、pandas、scikit-learn库。