E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Descent
Learning to learn by gradient
descent
by gradient
descent
笔记
转载地址:https://zhuanlan.zhihu.com/p/21362413什么意思呢?就是用梯度下降的方法学会了梯度下降的学习方法。用一个神经网络来调控另一个神经网络!怎么做?如上图,一个是神经网络优化器,一个是被优化的神经网络,也就是我们平时都用的神经网络。这里我们把数据输入到被优化的神经网络中,然后输出误差,把误差信号传给神经网络优化器,这个优化器就自己计算输出参数应该更新的大小,然
This_is_alva
·
2017-11-16 15:49
meta
learning
论文笔记
机器学习之梯度下降算法Gradient
Descent
梯度下降算法:机器学习实现关键在于对参数的磨合,其中最关键的两个数:代价函数J(θ),代价函数对θ的求导∂J/∂θj。如果知道这两个数,就能对参数进行磨合了:其中α为每步调整的幅度。其中代价函数公式J(θ):代价函数对θ的求导∂J/∂θj:通过不断减低代价函数而得到准确的参数。例如:算法运行过程:给定初始参数p0,p1,通过算法一步一步调整P0,P1,使得J变小。梯度下降算法适用范围:监督学习。监
木子李均
·
2017-11-06 13:53
机器学习
CS231N学习笔记4 Optimization: Stochastic Gradient
Descent
OptimizationistheprocessoffindingthesetofparametersWWthatminimizethelossfunction.Visualizingthelossfunction从上一个chapter,得到lossfunction如下:换一种写法:其中wj是类j的权重向量.可以发现,L其实是wj的一个线性函数的和.假设现在每张图xi只有一个维度,给三个图,他们的
dancinglikelink
·
2017-11-02 20:59
CS231n学习笔记
CS231N学习笔记4 Optimization: Stochastic Gradient
Descent
OptimizationistheprocessoffindingthesetofparametersWWthatminimizethelossfunction.Visualizingthelossfunction从上一个chapter,得到lossfunction如下:换一种写法:其中wj是类j的权重向量.可以发现,L其实是wj的一个线性函数的和.假设现在每张图xi只有一个维度,给三个图,他们的
dancinglikelink
·
2017-11-02 20:59
CS231n学习笔记
吴恩达机器学习——我的错题集
It speeds up gradient
descent
by making it require fewer iterations to get to a good solution.It speeds
Alinawly
·
2017-10-25 14:45
机器学习
machine learning - gradient
descent
python
---data.csv-----52.211796692214001,79.6419730498087439.299566694317065,59.17148932186950848.10504169176825,75.33124229706305652.550014442733818,71.30087988685035345.419730144973755,55.1656771459591235
wokeman
·
2017-10-22 17:27
梯度下降(Gradient
Descent
)
梯度下降算法可以将代价函数J最小化。为了说明问题,只使用θ0,θ1。如图所示,梯度下降会因为初始化的不同而获得不同的局部最优解。α被称为学习速率,它在梯度下降算法中代表了我们下山时迈多大的步子。正确的做法是同步更新θ0和θ1。不正确是因为先计算了θ0而θ0更新会影响到θ1的计算。微分项求导或偏导,其实相当于给θ一个增加或者减少的方向;而α决定了增加和减少的值,即步长大小。α的大小不同,代表下降步子
天际神游
·
2017-09-17 13:07
梯度下降(Gradient
Descent
)
梯度下降法(GradientDescent):是求解机器学习算法的模型参数(即无约束最优化问题)时,最常用的方法之一。梯度下降法是一种迭代算法,每一步需求解目标函数的梯度向量。什么叫梯度?在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y),分别对x,y求偏导数,求得的梯度向量就是(∂f/∂x,∂f/∂y)T,简称gradf(x,y)
阳光100!!!!
·
2017-09-10 14:05
机器学习分类算法
gradient
descent
的python实现
从模拟数据集到曲线拟合#-*-coding:utf-8-*-"""CreatedonTueSep521:21:582017@author:wjw模拟产生数据集,然后再进行拟合"""defnomalization(X):#不归一化时梯度下降时数值太大,报错maxX=max(X)minX=min(X)normalized_X=[]forxinX:normalized_X.append((x-minX)
ge_nius
·
2017-09-07 20:12
数据挖掘
python
An overview of gradient
descent
optimization algorithms解读
文章主要内容:本文旨在为读者提供不同算法的原理以及效果的直观展示,并希望读者能够在实际问题中更合理地选用梯度下降法。文章结构:1.简介:梯度下降法2.随机梯度下降法3.随机梯度下降的问题与挑战4.随机梯度下降的优化算法(主要内容)5.并行与分布式架构6.随机梯度下降的其他优化方法正文1梯度下降法如果J(θ)是一个多元函数,在θ0点附近对J(θ)做线性逼近J(θ0+△0)=J(θ0)+△Tθ⋅∇J(
Ce1estial
·
2017-08-17 15:05
Batch Gradient
Descent
(python)
importnumpyasnpimporttensorflowastfdefGradientDescent(x,y,theta):m,n=x.shape#mis#trainingexample,whilenis#featureforjinrange(n):#learningrate:0.03theta[j]=theta[j]+0.03/m*np.sum(([(y[i]-np.matmul(x[i,
darkomg
·
2017-07-21 20:42
线性回归与梯度下降(gradient
descent
)算法
最近一段时间时间在看Caffe的架构和代码,在Blob的数据结构里面发现主要存储了两类内容:一类是数据data_,另一类是diff_。作为半路出家研究机器学习的我来说就大概了解了一下线性回归的基本内容,对梯度下降的方法也做了了解。好在两个部分内容都不是特别复杂,理解起来也不会太困难。线性回归参考(一)线性回归与特征归一化(featurescaling),作者写的很清楚,我就不再浪费时间了。梯度下降
glory_lee
·
2017-07-21 17:26
Deep
Learning
ML实战-Adaline with stochastic gradient
descent
原理stochasticgredientdescent初版的Adaline的最大缺点是需要x,y的全集来进行计算weight,但是在实际的大数据应用场景中,这是不可能的。因为在网络中,数据是指数增长的,有新的数据源源不断地添加。所以需要引入“批处理的梯度下降算法”这个概念。以下是前一章初级gradientdescent过程:将全部的x放入神经网中训练.foriinrange(self.n_iter
hallao0
·
2017-07-10 11:55
基础知识
线性回归、梯度下降(Linear Regression、Gradient
Descent
)
实例首先举个例子,假设我们有一个二手房交易记录的数据集,已知房屋面积、卧室数量和房屋的交易价格,如下表:假如有一个房子要卖,我们希望通过上表中的数据估算这个房子的价格。这个问题就是典型的回归问题,这边文章主要讲回归中的线性回归问题。线性回归(LinearRegression)首先要明白什么是回归。回归的目的是通过几个已知数据来预测另一个数值型数据的目标值。假设特征和结果满足线性关系,即满足一个计算
刘元兴
·
2017-05-18 14:02
文章
记录
因变量
梯度下降(Gradient
Descent
)小结
在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(GradientDescent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。1.梯度在微积分里面,对多元函数的参数求偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y),分别对x,y求偏导数,求得的梯度向量就是(f/x,f/y)T,简称gradf(x,y)或者▽f(
胡雨生
·
2017-05-13 16:50
模型
微积分
梯度下降(Gradient
Descent
)小结
在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(GradientDescent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。1.梯度在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y),分别对x,y求偏导数,求得的梯度向量就是(∂f/∂x,∂f/∂y)T,简称gradf(x,y)
f9db33t79p
·
2017-05-13 16:18
随机梯度下降法(Stochastic Gradient
Descent
)和批量梯度下降法(Batch Gradient
Descent
)总结
公式来源于:http://blog.csdn.net/lilyth_lilyth/article/details/8973972参考知乎:https://zhuanlan.zhihu.com/p/25765735梯度下降法常用于最小化风险函数或者损失函数,分为随机梯度下降(StochasticGradientDescent)和批量梯度下降(BatchGradientDescent)。除此之外,还有
code_caq
·
2017-04-13 19:52
Machine
Learning
梯度下降(Gradient
Descent
)
梯度下降(GradientDescent)1GradientDescentθ∗=argminθL(θ)θi=θi−1−η∇L(θi−1)2TipsLearningRate学习率η:过大时飞出去了…过小时学习速度慢效率低AdaptiveLearningRate:开始时大,慢慢变小。E.g.ηt=η/t+1−−−−√gt=∂C(θt)∂wAdagrad:wt+1=wt−ηtσtgt,其中σt是过去所有
n不正
·
2017-04-12 15:19
李宏毅机器学习笔记
深度学习优化算法记录
1.Anoverviewofgradientdescentoptimizationalgorithmshttp://sebastianruder.com/optimizing-gradient-
descent
upDiff
·
2017-03-27 15:38
tensorflow
梯度下降(Gradient
Descent
)小结
在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(GradientDescent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。1.梯度在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y),分别对x,y求偏导数,求得的梯度向量就是(∂f/∂x,∂f/∂y)T,简称gradf(x,y)
JdoOudDm7i
·
2017-03-14 15:30
机器学习(1)之梯度下降(gradient
descent
)
机器学习(1)之梯度下降(gradientdescent)题记:最近零碎的时间都在学习AndrewNg的machinelearning,因此就有了这些笔记。梯度下降是线性回归的一种(LinearRegression),首先给出一个关于房屋的经典例子,面积(feet2)房间个数价格(1000$)2104340016003330240033691416223230004540........上表中面积
goodshot
·
2017-03-05 10:39
机器学习
An overview of gradient
descent
optimization algorithms
AnoverviewofgradientdescentoptimizationalgorithmsNote:Ifyouarelookingforareviewpaper,thisblogpostisalsoavailableasanarticleonarXiv.Tableofcontents:GradientdescentvariantsBatchgradientdescentStochastic
ericliu2017
·
2017-01-28 11:01
机器学习
通俗易懂地介绍梯度下降法(以线性回归为例,配以Python示例代码)
转载:https://spin.atomicobject.com/2014/06/24/gradient-
descent
-linear-regression/AnIntroductiontoGradientDescentandLinearRegressionGradientdescentisoneofthose
huludan
·
2016-10-30 15:12
机器学习
机器学习线性回归(linear regression)/梯度下降法(gradient
descent
)/最大似然函数/--附python代码
本文为吴恩达《机器学习》课程的读书笔记,并用python实现。线性回归是一个比较简单的算法,这里主要借线性回归,讲一下梯度下降法和最大似然函数,后面逻辑回归也会用到。因为不能粘贴公式,所以很多内容直接截屏,不是很美观。机器学习主要分为两种:1.有监督学习(supervisedlearning):即常说的分类(classification)和回归(regression),通过训练样本集(包含输入和输
helen1313
·
2016-10-27 13:16
机器学习
梯度下降(Gradient
Descent
)小结
在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(GradientDescent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。1.梯度在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y),分别对x,y求偏导数,求得的梯度向量就是(∂f/∂x,∂f/∂y)T,简称gradf(x,y)
刘建平Pinard
·
2016-10-17 22:00
android中利用Paint绘制文本使其居中
canvas的drawText(text,x,y,paint)方法,其中第三个参数y应该是baseline的值,计算公式如下:intbaseline=(getMeasuredHeight()-(paint.
descent
AllenIrving
·
2016-10-09 16:31
Android
android中利用Paint绘制文本使其居中
canvas的drawText(text,x,y,paint)方法,其中第三个参数y应该是baseline的值,计算公式如下:intbaseline=(getMeasuredHeight()-(paint.
descent
AllenIrving
·
2016-10-09 16:31
Android
梯度下降法 gradient
descent
梯度下降法也称为最速下降法(steepestdescent),用来求解无约束的最优化问题,有约束的最优化问题使用拉格朗日乘子法(lagrangianmultipliermethod);梯度下降法是迭代算法,每一步需要求解目标函数的梯度向量。目标函数f(x),已知f(x)可导且有极小值,求解无约束条件下f(x)的极小值点x∗,及此时f(x)的极小值。梯度下降法是一种迭代算法,首先选取初值x0,朝着使
chi_wawa
·
2016-10-05 21:35
优化
梯度下降
机器学习
统计
机器学习
android测量文字的宽高
获取文字高度:inttextHeight=(int)(mPaint.
descent
()-mPaint.ascent());1.基准线是baseline2.ascent:字体在baseline上方被推荐的距离
baidu_31093133
·
2016-09-02 14:00
android
字体
SDM(supervised
descent
method)算法
最近在研究人脸特征点检测,之前没接触过,有些论文虽然能看懂,但是细节的部分可能之前的论文都有提到过,就没有再提。所以找了一篇稍微早一点的文章开始学习起来。MATLAB版本的代码基本上都看懂了,不过作者可能之前做过ASM,代码中有一些方法没有使用,或者使用了比较复杂的算法,其实只使用了其中一小部分结果,看起来有点难。准备找时间自己实现一下,看了代码应该不算难(又立flag了,督促自己不要偷懒)。这里
Leo_812
·
2016-09-01 11:46
Regression
机器学习中的数学(1)-回归(regression)、梯度下降(gradient
descent
)
回归与梯度下降:回归在数学上来说是给定一个点集,能够用一条曲线去拟合之,如果这个曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归,回归还有很多的变种,如locallyweighted回归,logistic回归,等等,这个将在后面去讲。用一个很简单的例子来说明回归,这个例子来自很多的地方,也在很多的opensource的软件中看到,比如说weka。大概就是,做一个房屋价值
czmmiao
·
2016-08-30 14:51
机器学习
Android绘制文本基本概念之- top, bottom, ascent,
descent
, baseline
baseline是基线,在Android中绘制文本都是从baseline处开始的,从baseline往上至至文本最高处的距离称之为ascent(上坡度),baseline至文本最低处的距离称之为
descent
殇神马
·
2016-08-26 14:45
android
baseline
绘制文本
ascent
descent
Android开发
Pixhawk之姿态解算篇(6)_Gradient
Descent
一、开篇在多旋翼进行姿态估计的过程中,最简单的就是直接使用gyro测量角速度进行积分求取欧拉角(RPY),但是由于gyro自身存在的bias和drift,导致直接测量过程随着时间的推荐变得越来越不精确。所以,许多研究者想到了使用加速度计和磁力计测量重力加速度和地球磁场强度对gyro的bias和drift进行补偿修正(不是eliminategyro’sbiasanddrift,该叙述是错误的,加速度
_Summer__
·
2016-07-11 16:49
UAV
梯度下降法(Gradient
Descent
)
概念梯度下降法(通常也称为最速下降法)是一个一阶最优化算法。要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点,这个过程则被称为梯度上升法。梯度下降方法基于以下的观察:如果实值函数F(x)在点a处可微且有定义,那么函数F(x)在a沿着梯度相反方向−∇F(a)下降最
dengpei187
·
2016-07-06 15:12
机器学习
梯度下降法(Gradient
Descent
)
概念梯度下降法(通常也称为最速下降法)是一个一阶最优化算法。要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点,这个过程则被称为梯度上升法。梯度下降方法基于以下的观察:如果实值函数F(x)在点a处可微且有定义,那么函数F(x)在a沿着梯度相反方向−∇F(a)下降最
dengpei187
·
2016-07-06 15:00
梯度下降法
局部极小值
最小二乘法区别
TextPaint绘制文字
它里面呢就定义了top,ascent,
descent
,bo
cxc19890214
·
2016-06-03 20:15
Android
梯度下降的matlab实现
运用梯度下降对多参数的数据进行线性拟合的简单实现%function[]=gradient_
descent
(x,y,a,th)%梯度下降clear;clc;x=rand(100,4);y=rand(100,1
·
2016-05-08 17:00
matlab
梯度下降
拟合
机器学习中的数学(1)-回归(regression)、梯度下降(gradient
descent
)
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。前言: 上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机器学习的书和视频,其中很推荐两个:一个是stanford的machinelearning公开课,在
u011534057
·
2016-05-07 17:00
Optimization:Stochastic Gradient
Descent
原文地址:http://cs231n.github.io/optimization-1/########################################################################3内容列表:1.介绍2.可视化损失函数3.最优化3.1.策略1:随机搜索3.2.策略2:随机局部搜索3.3.策略3:跟随梯度4.计算梯度4.1.有限差分(Numeric
u012005313
·
2016-05-05 16:00
优化
python
机器学习
深度学习
Android 基本属性绘制文本对象FontMetrics介绍
Android绘制文本对象FontMetrics介绍FontMetrics对象它以四个基本坐标为基准,分别为:・FontMetrics.top・FontMetrics.ascent・FontMetrics.
descent
lovoo
·
2016-04-23 16:00
android
SDM(Supervised
Descent
Method)用于人脸对齐的C++实现方法
为了调试这个代码,花了我整整一天的时间,需要用到的东西太多了,所以比较费时费力,现在将实现过程总结如下:需要的工具(建议都使用最新版的):1、OpenCV2.4.9或3.0版本即可,没有太高的要求(我使用的是OpenCV2.4.9);2、Cmake(跨平台的安装(编译)工具)及Eigen(C++开源矩阵计算工具)最新版下载地址:点击打开链接;3、boost库下载地址:点击打开链接。下载boost_
那年聪聪
·
2016-04-16 11:40
人脸对齐
SDM(Supervised
Descent
Method)用于人脸对齐的C++实现方法
为了调试这个代码,花了我整整一天的时间,需要用到的东西太多了,所以比较费时费力,现在将实现过程总结如下:需要的工具(建议都使用最新版的):1、OpenCV 2.4.9或3.0版本即可,没有太高的要求(我使用的是OpenCV 2.4.9);2、Cmake(跨平台的安装(编译)工具)及Eigen(C++开源矩阵计算工具)最新版下载地址:点击打开链接 ;3、boost库下载地址:点击打开链接。下载b
duan19920101
·
2016-04-16 11:00
C++
人脸对齐
on-line gradient
descent
看到一个名为在线梯度下降的方法,之前没有遇到过,今天再次看到就搜索一下在线梯度下降的方法是考虑到在线学习的优化在线学习是增量学习的一种。在线学习:onlinelearning强调的是学习是实时的,流式的,每次训练不用使用全部样本,而是以之前训练好的模型为基础,每来一个样本就更新一次模型,这种方法叫做OGD(onlinegradientdescent)。这样做的目的是快速地进行模型的更新,提升模型时
Losteng
·
2016-04-11 10:00
梯度下降法(Gradient
Descent
)
第一次写博客,好激动啊,哈哈。之前看了许多东西但经常是当时花了好大功夫懂了,但过一阵子却又忘了。现在终于决定追随大牛们的脚步,试着把学到的东西总结出来,一方面梳理思路,另一方面也作为备忘。接触机器学习不久,很多东西理解的也不深,文章中难免会有不准确和疏漏的地方,在这里和大家交流,还望各位不吝赐教。先从基础的开始写起吧。这是学习AndrewNg的课程过程中的一些笔记,慢慢总结出来和大家交流。(又加了
isMarvellous
·
2016-04-08 18:00
机器学习
逻辑回归(代价函数,梯度下降) logistic regression--cost function and gradient
descent
逻辑回归(代价函数,梯度下降)logisticregression--costfunctionandgradientdescent对于有m个样本的训练集 ,。在上篇介绍决策边界的时候已经介绍过了在logistic回归中的假设函数为: 。因此我们定义logistic回归的代价函数(costfunction)为: ,下面来解释下这两个公式,先来看y=1时, ,画出的函数图像为:从图中可以看出,y=1,
u012328159
·
2016-04-06 20:00
function
Logistic回归
cost
gradient
梯度下降
descent
代价函数
最优化方法:梯度下降法
%E5%86%8D%E8%B0%88-%E6%9C%80%E9%80%9F%E4%B8%8B%E9%99%8D%E6%B3%95%E6%A2%AF%E5%BA%A6%E6%B3%95steepest-
descent
wishchin
·
2016-04-01 16:00
梯度下降实用技巧II之学习率 Gradient
descent
in practice II -- learning rate
梯度下降实用技巧II之学习率GradientdescentinpracticeII--learningrate梯度下降算法中的学习率(learningrate)很难确定,下面介绍一些寻找的实用技巧。首先看下如何确定你的梯度下降算法正在正常工作:一般是要画出代价函数 和迭代次数之间的图像,如下图所示。如果随着迭代次数的增加不断下降,那么说明梯度下降算法工作的很好,当到达一定迭代次数后基本持平时,说明
u012328159
·
2016-03-31 23:00
机器学习
learning
gradient
Rate
梯度下降
descent
学习率
梯度下降实用技巧I之特征缩放 Gradient
Descent
in practice I - feature scaling
梯度下降实用技巧I之特征缩放GradientDescentinpracticeI-featurescaling当多个特征的范围差距过大时,代价函数的轮廓图会非常的偏斜,如下图左所示,这会导致梯度下降函数收敛的非常慢。因此需要特征缩放(featurescaling)来解决这个问题,特征缩放的目的是把特征的范围缩放到接近的范围。当把特征的范围缩放到接近的范围,就会使偏斜的不那么严重。通过代价函数执行梯
u012328159
·
2016-03-31 22:00
机器学习
scaling
feature
梯度下降
特征缩放
Gradient
Descent
Algorithm
在解决下面这种类型问题时:minθ0,θ1J(θ0,θ1)GradientDescentAlgorithm所指的算法是temp0:=θ0−α∂J(θ0,θ1)∂θ0temp1:=θ1−α∂J(θ0,θ1)∂θ1θ0:=temp0θ1:=temp1具体来说就是,所有的变量是在同一时刻更新的。更新的大小由α∂J(θ0,θ1)∂θi来控制,即α和∂J(θ0,θ1)∂θi共同决定。关于GradientDe
GreTony
·
2016-03-28 20:33
机器学习笔记
算法
An overview of gradient
descent
optimization algorithms
转载自:http://sebastianruder.com/optimizing-gradient-
descent
/梯度下降优化及其各种变体。
beihangzxm123
·
2016-03-28 10:51
深度学习Deep
Learning
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他