极大极小搜索策略一般都是使用在一些博弈类的游戏之中:
这样策略本质上使用的是深度搜索策略,所以一般可以使用递归的方法来实现。在搜索过程中,对本方有利的搜索点上应该取极大值,而对本方不利的搜索点上应该取极小值。
极小值和极大值都是相对而言的。
在搜索过程中需要合理的控制搜索深度,搜索的深度越深,效率越低,但是一般来说,走法越好。
极大极小搜索可以分开写,也可以放在一起写。
主要的算法步骤如下:
输入:搜索的深度
输出:节点的最佳走法,及其对应的最佳估值
函数形式:int minMaxSearch(int depth ) 这里也可以添加int side参数表示当前谁是走棋方
如果轮到红方走棋,则
初始化最优值best = 负无穷大 //极大点 ,这里认为红方先走棋
否则
初始化最优值best = 正无穷大 //极小点
如果depth<= 0
调用评估函数值
否则
生成当前所有合理的走法
对每一步走法
执行走法
调用minMaxSearch(depth -1 ) , 并把值赋给value
撤销走法
如果轮到红方走棋,则
如果value > best
best = value
如果depth == MAX_DEPTH
bestMove = mv
否则
如果value < best
best = value
如果depth == MAX_DEPTH
bestMove = mv
返回best
在局面评估函数中一般返回双方优势的差值,以此作为评估值。
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
这里总结一下负极大值搜索策略:
一个局面对红方的优势为X,那么对于黑方的优势就是-X;一个局面对红方的优势为-X,对黑方的优势就是X。在负极大值搜索算法中,没有了极小点,只有极大点。需要注意的是,局面对一方的优势转化为另一方的优势时需要加负号。局面估计区间是一个关于0点对称的区间:
[-MaxValue,MaxValue].需要注意的是,为了能使负极大值搜索算法得到正确的评价,必须修改局面评估函数的返回值,原来在极大极小搜索算法中始终返回的是红方的优势,现在要改为当前走棋方的优势。
负极大值搜索算法:
输入:搜索深度
输出:节点的最佳走法,及对应的最佳估值
函数形式:int negaMaxSearch(int depth)
初始化最优值best=负无穷大 //都是极大点
如果depth小于等于0
调用评估函数,并将结果赋给value
返回value值
否则
生成当前所有合法的走法
对于每一步走法
执行走法
value= -negaMaxSearch(depth-1) //注意函数之前有负号
撤销走法
如果 value> best
best=value
如果 depth == Max_Depth
bestMove=mv
返回best //返回某个搜索分支的最优评估值
评估函数的算法:
输入:棋局
输出:局面对当前走方的优势
rValue:红方的优势总和
bValue:黑方的优势总和
分别进行评估,具体问题具体设计,获得rValue和bValue的值
如果当前局面是红方走棋
return rValue-bValue;
否则
return bValue-rValue;
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
极大极小搜索策略与负极大值搜索策略的改进——alpha-beta剪枝搜索策略
一般来说,为了在搜索过程中引起剪枝,在递归过程中要向下传递两个参数。第1个参数是alpha,它表示当前搜索节点走棋的一方搜索到的最好值,任何比它小的值都没有意义。第2个值是beta,表示对手目前的劣势,这是对手所能承受的最还的结果,比它大的值都会被舍弃。
因为是负极大值搜索,beta值越大,表示对方的劣势越明显,beta值越小,表示劣势也越小。
对于alpha-beta搜索剪枝算法,由于初始状态时还没有alpha-beta值,可以使用-MaxValue~MaxValue对应。
Alpha-Beta搜索剪枝算法如下:
输入:搜索深度、alpha、beta
输出:节点的最佳走法、及对应的最佳估值
函数形式:int alphaBetaSearch(int depth ,int alpha,int beta)
如果depth小于等于0
调用评估函数,并将结果赋给value
返回value值
否则
生成当前所有合理的走法
对每一个走法
执行走法
value= - alphaBetaSearch( depth-1 , -beta , -alpha);
//注意函数前面有负值,且参数alpha,beta分别取负值并进行交换
撤销走法
如果 value>=beta //使得可能引起的走法先被搜索,因为搜索的效率很大程度上取决于剪枝的效果
返回beta
如果 value>alpha
alpha=value
如果 depth == Max_Depth
bestmove=mv
返回alpha
调用形式:alphaBetaSearch(MaxDepth,-MaxValue,MaxValue)
习惯上把传递给一个待搜索节点的alpha和beta值组成的这个区间称为搜索窗口。
搜索窗口越窄,引发剪枝的可能性就越大,,搜索效率就越高。
传递给一个待搜索节点的alpha值会大于beta值吗?(绝对不会,连等于都不可能)。
下面是POJ3317 Stake your Claim的题目,分别使用负极大值搜索和alpha-beta剪枝优化的代码,从这个实验发现alpha-beta剪枝对效率的提高很有帮助。
下面是定义的一个局面评估的类:
#include
下面是负极大值搜索的实现:一开始使用极大极小总是得不到正确的结果,后来直接使用负极大值搜索策略,这里需要注意的是,负极大值搜索对应的评估函数需要针对不同的当前下棋方来来返回评估值,另外在搜索函数中,所有的点都是极大值的点,所以best的值就可以直接赋值为INT_MIN.在递归函数返回时,也不必进行side的判断了。
/* * POJ 3317 Stake Your Claim * 这是一道博弈题 * 搜索策略:极大极小 */ #include 下面是增加alpha-beta剪枝后的代码,注意的是剪枝的方法: /* * POJ 3317 Stake Your Claim * 这是一道博弈题 * 搜索策略:极大极小 */ #include