【ML-SVM案例学习】001梯度下降之一维和二维图像

文章目录

  • 前言
  • 一、代码程序
    • 1.引入库
    • 2.解决中文显示问题
    • 3.一维原始图像
    • 4.构建数据与绘图
    • 5.二维原始图像
    • 6.构建数据
    • 7.画图
  • 二、完整程序
  • 总结


前言

【ML-SVM案例】会有十种SVM案例,供大家用来学习。本文只是预先做个一维图像与二维图像数据构建及绘图。后面两章将会实现“002梯度下降:求解最优解“和“003梯度下降:拉格乘子法“。文章末尾有链接。


提示:以下是本篇文章正文内容,下面案例可供参考

一、代码程序

1.引入库

代码如下(示例):

import numpy as np
import matplotlib as mpl
import matplotlib.pyplot as plt
import math
from mpl_toolkits.mplot3d import Axes3D

2.解决中文显示问题

代码如下(示例):

mpl.rcParams['font.sans-serif'] = [u'SimHei']
mpl.rcParams['axes.unicode_minus'] = False

3.一维原始图像

def f1(x):
    return 0.5 * (x - 0.25) ** 2

4.构建数据与绘图

X = np.arange(-4, 4.5, 0.05)
Y = np.array(list(map(lambda t: f1(t), X)))
plt.figure(facecolor='w')
plt.plot(X, Y, 'r-', linewidth=2)
plt.title(u'函数$y=0.5 * (θ - 0.25)^2$')
plt.show()

5.二维原始图像

def f2(x, y):
    return 0.6 * (x + y) ** 2 - x * y

6.构建数据

X1 = np.arange(-4, 4.5, 0.2)
X2 = np.arange(-4, 4.5, 0.2)
X1, X2 = np.meshgrid(X1, X2)
Y = np.array(list(map(lambda t: f2(t[0], t[1]), zip(X1.flatten(), X2.flatten()))))
Y.shape = X1.shape

7.画图

fig = plt.figure(facecolor='w')
ax = Axes3D(fig)
ax.plot_surface(X1, X2, Y, rstride=1, cstride=1, cmap=plt.cm.jet)
ax.set_title(u'函数$y=0.6 * (θ1 + θ2)^2 - θ1 * θ2$')
plt.show()

二、完整程序

import numpy as np
import matplotlib as mpl
import matplotlib.pyplot as plt
import math
from mpl_toolkits.mplot3d import Axes3D

# 解决中文显示问题
mpl.rcParams['font.sans-serif'] = [u'SimHei']
mpl.rcParams['axes.unicode_minus'] = False

# 一维原始图像
def f1(x):
    return 0.5 * (x - 0.25) ** 2

# 构建数据
X = np.arange(-4, 4.5, 0.05)
Y = np.array(list(map(lambda t: f1(t), X)))


# 画图
plt.figure(facecolor='w')
plt.plot(X, Y, 'r-', linewidth=2)
plt.title(u'函数$y=0.5 * (θ - 0.25)^2$')
plt.show()


# 二维原始图像
def f2(x, y):
    return 0.6 * (x + y) ** 2 - x * y

# 构建数据
X1 = np.arange(-4, 4.5, 0.2)
X2 = np.arange(-4, 4.5, 0.2)
X1, X2 = np.meshgrid(X1, X2)
Y = np.array(list(map(lambda t: f2(t[0], t[1]), zip(X1.flatten(), X2.flatten()))))
Y.shape = X1.shape


# 画图
fig = plt.figure(facecolor='w')
ax = Axes3D(fig)
ax.plot_surface(X1, X2, Y, rstride=1, cstride=1, cmap=plt.cm.jet)
ax.set_title(u'函数$y=0.6 * (θ1 + θ2)^2 - θ1 * θ2$')
plt.show()


总结

002梯度下降:求解最优解
003梯度下降:拉格乘子法

你可能感兴趣的:(图像处理,人工智能,计算机视觉,支持向量机,学习,梯度下降)