AgentAction
方法AgentAction
方法这段代码是一个重写了 AgentAction
方法的方法。以下是对每行代码解释:
①public override void AgentAction(float[] vectorAction)
这行代码声明了一个公共的、重写了父类的 AgentAction
方法的方法。它接受一个 float
类型的数组作为参数。
②float newAction0 = Mathf.Clamp(vectorAction[0], -1, 1);
这行代码将 vectorAction
数组的第一个元素限制在 -1 到 1 的范围内,并将结果赋值给 newAction0
变量。
③newAction0 = (newAction0 + 1) / 2;
这行代码将 newAction0
的值加1后除以2,相当于将其从范围 -1 到 1 映射到范围 0 到 1。
④float newForce = Mathf.Lerp(MinForce, MaxForce, newAction0);
这行代码使用线性插值函数 Mathf.Lerp
,根据 newAction0
的值在最小力量值 MinForce
和最大力量值 MaxForce
之间插值,将插值结果赋值给 newForce
变量。
⑤ShootBall(newForce);
这行代码调用名为 ShootBall
的方法,并将 newForce
作为参数传递给它。它的作用是使用指定的力量值来发射一个球。
重写(override)是面向对象编程中的一个概念,它指的是在子类中重新实现(覆盖)父类中已存在的方法。
在这段代码中,AgentAction
方法是一个父类中的方法,通过使用 override
关键字,该方法在当前类中进行了重新实现。也就是说,当前类是一个子类,继承了某个父类,而 AgentAction
方法是在父类中定义的。通过重写该方法,子类可以根据自己的需求对方法的行为进行修改或扩展。
在代码中的第一行,public override void AgentAction(float[] vectorAction)
表示当前类重写了父类中的 AgentAction
方法,而不是使用父类中原有的实现。重写方法可以提供自定义的功能或行为,以满足子类的特定需求。
CollectObservations
方法CollectObservations
方法这段代码也是重写了一个方法,具体来说是重写了 CollectObservations
方法。
以下是对每行代码的解释:
①public override void CollectObservations()
这行代码声明了一个公共的、重写了父类的 CollectObservations
方法的方法。
②float distance = Vector2.Distance(mBallVector2, mNetVector2);
这行代码计算了一个向量 mBallVector2
和 mNetVector2
之间的距离,并将结果赋值给 distance
变量。
③distance = (distance - MinDis) / (MaxDis - MinDis);
这行代码将 distance
的值从范围 MinDis
到 MaxDis
映射到范围 0 到 1。它通过减去 MinDis
,然后除以 MaxDis - MinDis
来进行映射。
④AddVectorObs(distance);
这行代码将 distance
添加到观察向量中。这个观察向量用于提供给机器学习模型关于环境状态的信息。
⑤float height = NetTrans.position.y - HeightBaseTrans.position.y;
这行代码计算了一个高度值,即 NetTrans
对象的 y 坐标减去 HeightBaseTrans
对象的 y 坐标,并将结果赋值给 height
变量。
⑥height = (height - MinHeight) / (MaxHeight - MinHeight);
这行代码将 height
的值从范围 MinHeight
到 MaxHeight
映射到范围 0 到 1。它通过减去 MinHeight
,然后除以 MaxHeight - MinHeight
来进行映射。
⑦AddVectorObs(height);
这行代码将 height
添加到观察向量中,用于提供给机器学习模型关于环境状态的更多信息。
这段代码重写了 CollectObservations
方法,以生成两个观察向量:一个是关于机器人与目标的距离,另一个是关于目标距离地面的高度。这些观察向量会在机器学习过程中提供环境状态的信息,以辅助决策和学习。
CollectObservations
方法以下是对提供的代码的逐行解释:
①public override void CollectObservations()
这行代码声明了一个公共的、重写了父类的 CollectObservations
方法的方法。
②AddVectorObs(HasMedicineState);
这行代码将名为 HasMedicineState
的变量添加到观察向量中。HasMedicineState
可能是一个布尔值,用于表示是否持有药物。观察向量在机器学习过程中用于提供环境状态的信息。
③AddVectorObs(transform.InverseTransformDirection(mAgentRig.velocity));
这行代码将 mAgentRig
物体(代理体)的速度转换为局部坐标系中的方向,并将其添加到观察向量中。transform.InverseTransformDirection
用于将世界坐标系中的方向转换为相对于物体的局部坐标系中的方向。
通过以上代码,CollectObservations
方法重写了父类中的方法,生成了两个观察向量。第一个观察向量包含了一个代表是否持有药物的状态信息。第二个观察向量包含了物体运动的速度信息,该速度信息已转换为局部坐标系中的方向。这些观察向量将为机器学习模型提供有关环境状态的信息。
常用的 PPO(Proximal Policy Optimization)算法的输出动作向量通常被限制在-1到1的值域范围内。这种限制是为了确保输出的动作在合理的范围内,以避免过大或过小的动作值。将输出动作值域限制在-1到1之间有助于稳定训练过程,并使得学习到的策略更容易在实际环境中执行。
在代码中,你可能会看到一些对输出动作向量进行范围映射的操作,例如使用 Mathf.Clamp
函数将动作向量的元素限制在-1到1之间。这样的映射操作可以确保输出动作在合理范围内,并符合使用 PPO 算法的通常约定。
注意:从官方的使用说明文档中可以了解到,不适合过度设计奖励方式,代理可能会在训练过程中找到奖励的“漏洞”,最终导致训练失败。
参考文献:
[1]朱杰. 基于Unity3D游戏人工智能的研究与应用[D].广东工业大学,2020.