最速下降法(附Python代码)

最速下降法(附Python代码)importnumpyasnpfromsympyimport*importmathimportmatplotlib.pyplotaspltimportmpl_toolkits.axisartistasaxisartist#定义符号x1,x2,t=symbols(‘x1,x2,t’)#sympy符号数学相当于代数式def…

大家好,欢迎来到IT知识分享网。

最速下降法(附Python代码)

最速下降法(附Python代码)

最速下降法(附Python代码)

最速下降法(附Python代码)

import numpy as np
from sympy import *
import math
import matplotlib.pyplot as plt
import mpl_toolkits.axisartist as axisartist

# 定义符号
x1, x2, t = symbols('x1, x2, t')#sympy 符号数学相当于代数式

def func():
    # 自定义一个函数
    return 2*pow(x1, 2) + pow(x2, 2)

def grad(data):
    # 求梯度向量,data=[data1, data2]
    f = func()
    grad_vec = [diff(f, x1), diff(f, x2)]  # 求偏导数,梯度向量
    grad = []
    for item in grad_vec:
        grad.append(item.subs(x1, data[0]).subs(x2, data[1]))#subs(a,b)将a替换为b
    return grad

def grad_len(grad):
    # 梯度向量的模长
    vec_len = math.sqrt(pow(grad[0], 2) + pow(grad[1], 2))
    return vec_len

def zhudian(f):
    # 求得min(t)的驻点
    t_diff = diff(f)
    t_min = solve(t_diff)
    return t_min

def main(X0, theta):
    f = func()
    grad_vec = grad(X0)#偏导数的值
    grad_length = grad_len(grad_vec)  # 梯度向量的模长
    k = 0
    data_x = [0]
    data_y = [0]
    while grad_length > theta:  # 迭代的终止条件
        k += 1
        p = -np.array(grad_vec)
        # 迭代
        X = np.array(X0) + t*p
        t_func = f.subs(x1, X[0]).subs(x2, X[1])
        t_min = zhudian(t_func)#驻点
        X0 = np.array(X0) + t_min*p
        grad_vec = grad(X0)
        grad_length = grad_len(grad_vec)
        print('grad_length', grad_length)
        print('坐标', X0[0], X0[1])
        data_x.append(X0[0])
        data_y.append(X0[1])

    print(k)
    plt.plot(data_x,data_y)
    plt.show()

if __name__ == '__main__':
	# 给定初始迭代点和阈值
    main([1, 1], 0.1)

 

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/15179.html

(0)
上一篇 2024-02-20 13:45
下一篇 2024-02-20 16:26

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信