蓝桥杯 java 剪格子

题目

原文见:蓝桥杯官网
简单的说就是输入一个矩阵,要求将其分成两个部分,每一部分的和相等,这种分法也许有很多种,求一种分法能使左上角元素所在的块最小的一种。

已有的解法

关于这题的争议挺多,实际上蓝桥杯的测试数据的水分很大,一些近似的算法也能得到结果。
关于直接用深度搜索的可以见这篇:云笔记的文章
还有用IDA*搜索的算法:flyawayl的文章
个人感觉直接深度搜索不合适,最起码要进行记忆,否则太可能超时了,虽然直接深度搜索也能达到蓝桥的AC,不过正好最近想训练算法,不妨试着写一个,最后写成的代码200+行,绝对不是考试现场能完成的。

思路

搜索是肯定要的,但是在此不妨做这样的处理,将对于左上角的分割块的搜索分成这样的两步:
1.先根据矩阵里的所有数据,找出一组求和是矩阵总和的一半的数据,这组数据要求包含左上角数据,同时数据个数最少。
2.根据1得到的结果测试是否能拼凑出一个块。如果不能,继续1的寻找。
3.对2得到的结果进行测试:测试是否正好将矩阵分成两个部分,用类似并查集的方式。

实现代码

import java.util.HashMap;
import java.util.HashSet;
import java.util.Scanner;
import java.util.Stack;

/**在蓝桥杯的测试里能AC
 * 主要思想分成3部分:
 *     1.统计矩阵里所有的数值的情况(这里用TreeMap可能会更好),搜索一个序列,这个序列加起来等于(总和/2 - 左上角的数),即这个序列加左上角的数等于总和的一半
 *     2.从左上角开始遍历,测试1得到的数据能不能拼接到一个相连的块中
 *     3.测试2得到的结果是不是正好将矩阵分成了两部分
 * 采取1的原因在于直接遍历的计算量很大,实际是可能超时的,也可以进行记忆优化,我想大概可以使用HashMap<当前的和, 计算过与否>[10][10]作为搜索的记录
 * 步骤1、2都有缺点,都能进一步优化,都能记忆处理
 **/
public class Main {

	static final int MAX  = 10005; // 输入值得最大值
	static final int MLEN = 105;   // 输入矩阵的最大数据个数
	
	static int m, n;
	static int[] nums;
	static int[] hash;
	static int aim;
	
	public static void main(String[] args) throws Exception {
		
		Scanner sc = new Scanner(System.in);
		m = sc.nextInt();
		n = sc.nextInt();
		nums = new int[n * m];
		hash = new int[MAX]; // 散列
		uf = new int[m * n]; // 类似并查集,最后判断是否分割成两部分使用
		
		int all = 0;  // 总和
		for(int i = 0; i < nums.length; i ++) {
			int t = sc.nextInt();
			nums[i] = t;
			hash[t] ++;
			all += t;
		}
		sc.close();
		
		hash[nums[0]] --; // 将位置0从中删除
		
		if(all % 2 != 0) { // 和为奇数
			System.out.println(0);
			return;
		}
		
		aim = all / 2 - nums[0];
		
		findAim(0, MAX-1);
		
		if(!find)
			System.out.println(0);
		
	}

	static int[] list = new int[105]; // 当前已经选择的数值
	static int ind = 0; // 列表当前的下标
	
	static boolean find = false; // 当找到了一个合理的答案之后,程序能快速结束
	
	public static void findAim(  // 查找一个能满足和为aim的序列
			int sum,             // 当前的和
			int index) {         // 遍历的位置
		
		if(find)
			return;
		if(sum > aim)
			return;
		if(sum == aim) {
			if(isValid()) {
				System.out.println(ind + 1);
				find = true;
			}
			return;
		}
		
		while(index > 0) {
			if(hash[index] > 0) {
				for(int i = hash[index]; i > -1; i --) {    // 加上n个index的值 贪心为上
					for(int j = 0; j < i; j ++) {           // 更新链表
						list[ind ++] = index;
					}
					findAim(sum + i*index, index-1);
					ind -= i;  // 回溯
				}
				return;
			}else {
				index --;
			}
		}
	}
	
	// 判断当前的list是否合法
	// 需要判断
	//   1.是否能将list数据和arr[0]拼接成一个整体
	//   2.判断生成的结果是否可以分成两部分
	static boolean isValid() {
		validIndex = new HashSet();
		validIndex.add(1);
		validIndex.add(m);
		exist[0] = true; // 已经拥有0,0点
		
		// 将list散列化 由于每一次都建立一个MAX大小的向量是不现实的,使用Map结构记录
		tempMap.clear();
		for(int i = 0; i < ind; i ++) {
			Integer old = tempMap.put(list[i], 1);     // 当前能够加入的值
			if(old != null)
				tempMap.put(list[i], 1 + old);
		}
		return dp(0);
	}

	static HashSet validIndex;
	static HashMap tempMap = new HashMap(); // 记录list中需要的数据,以及其需要的次数
	static boolean[] exist = new boolean[MLEN]; // 当前已经拥有的位置
	
	static boolean dp(int count) {
		if(count == ind) {
			if(isTwoPart())
				return true;
			else
				return false;
		}
		
		// 找到当前能加入的点
		// 结束时,addStack中包含了当前能加入的点的位置
		// addStack里面放的是能加入的位置
		Stack addStack = new Stack();
		for(int li:validIndex) {      // 遍历当前的合法位置
			Integer key = tempMap.get(nums[li]);
			if(key != null && key != 0) {
				addStack.add(li);
			}
		}
		
		// 选定一个点,加入
		while(!addStack.isEmpty()) {
			
			int node = addStack.pop();
			int type = addNode(node);
			if(dp(count + 1))
				return true;
			removeNode(node, type);
			
		}
		
		return false;
	}

	public static int addNode(int node) { // 加入一个位置,返回变动的类型
		int type = 0;
		if((node+1)%m != 0   && !exist[node + 1])        // 如果没到行末
			if(validIndex.add(node + 1)) type |= 1;
		if((node+m)   <  m*n && !exist[node + m])        // 如果没到列末
			if(validIndex.add(node + m)) type |= 2;
		if((node-m)   >  0   && !exist[node - m])        // 不是第一行
			if(validIndex.add(node - m)) type |= 4;
		if(node % m   != 0   && !exist[node - 1])        // 不是第一列
			if(validIndex.add(node - 1)) type |= 8;
		validIndex.remove(node); // 删除自身
		exist[node] = true;
		tempMap.put(nums[node], tempMap.get(nums[node]) - 1);   // 维护map
		return type;
	}
	
	public static void removeNode(int node, int type) {
		if((type & 1) != 0) validIndex.remove(node + 1);
		if((type & 2) != 0) validIndex.remove(node + m);
		if((type & 4) != 0) validIndex.remove(node - m);
		if((type & 8) != 0) validIndex.remove(node - 1);
		validIndex.add(node);
		exist[node] = false;
		tempMap.put(nums[node], tempMap.get(nums[node]) + 1);   // 维护map
	}
	
	static int[] uf; // 类似并查集Union Find
	
	// 判断是否真的将表格分成两个部分
	public static boolean isTwoPart() {
		for(int i = 0; i < uf.length; i ++){
			uf[i] = -1;
		}
		// 由于nums[0]一定是被选上的,故,先统计从nums[0]开始能合并多少个节点
		uf[0] = 1;
		merge(0);
		// 找到一个没有被选择的位置,合并
		int index = 0;
		for(int i = 1; i < exist.length; i ++) {
			if(!exist[i]) {
				index = i;
				break;
			}
		}
		uf[index] = 2;
		merge(index);
		
		// 经过上述两个合并,使uf中最起码存在两个集合,这两个集合是联通的,且一个被选取的,一个不被选取的
		// 如果uf还存在-1,就说明存在不能被两个集合划分
		for(int i = 0; i < uf.length; i ++) {
			if(uf[i] == -1)
				return false;
		}
		return true;
	}
	
	// 从index位置开始,将与其相连且标签(标签指是否是否被选取)与其一致的元素合并,考虑exist数组
	public static void merge(int index) { 
		if((index+1)%m != 0    && exist[index] == exist[index+1]) check(index, index + 1);// 如果没到行末,并且行末和这个位置的标签一致
		if((index+m)   <  m*n  && exist[index] == exist[index+m]) check(index, index + m);
		if((index-m)   >  0    && exist[index] == exist[index-m]) check(index, index - m);
		if(index % m   != 0    && exist[index] == exist[index-1]) check(index, index - 1);
	}
	
	// 为了能简单merge的代码,抽取代码
	// 实际作用是:在已经判明index和next都存在,并且两者标签相同时,应该进行怎样的操作
	public static void check(int index, int next) {
		if(uf[next] == uf[index])  // 说明是重复搜索
			return;
		else {
			uf[next] = uf[index];
			merge(next);           // 对next进行搜索
		}
	}

}

反思

其实这个算法不能说绝对比dfs好,但是在处理较极端的数据情况下(比如除了右下角外全1,而右下角正好是和的一半),会比深度搜索好一些
不过1、2步骤的优化完全没有做,都能进行记忆化处理,而且对1、2应该更好的优化算法,比如1,完全能用0-1线性规划。。。
1、2还有个联合优化问题,比如第二步判明第一步的结果是不能通过的,那么在很可能下一个计算得到的结果实际也是通不过的。

你可能感兴趣的:(蓝桥杯,蓝桥杯,java)