前两年做了个三维重建程序

适用范围

主要只针对相机标定好、点也匹配好的情况下的简单的多视图重建。

特别地,对于牛津大学的Zissermann小组公开的多视图数据集工作效果最好。对于 100% 的数据都能够高效地达到数值意义上的全局 L2 最优。简直可算得上这种类型重建的 gold standard algorithm

然而,对更多的真实数据(海量)的进一步测试表明,这种方法并不是总能确保 L2 最优的。因为本质上是一种局部迭代算法,无法保证找到全局最优;只是因为初值漂亮,从而对真实数据也能 95% 以上情形可以 L2 最优 。只能说,牛津大学的多视图数据集 做得太漂亮、太不真实了。——不过奇怪还是很多算法对于牛津的数据也不能确保 100% L2 最优。

程序

用C++在windows上写了代码,编译为32位可执行文件。
可以简单通过console程序方式运行,但并不是命令行运行文件。而是鼠标点击运行方式。

——双击exe文件之后,程序会自动读取当前文件夹下特定文件名和扩展名的数据文件(ASCII文件)。我对数据文件的格式添加了一个比较欢乐的对文件头内容的特别要求,否则拒绝计算。

给命令行里面的文本上色,我是使用了某位印度同学放在网上的作业——一个叫colcon.h的头文件,现在出处也忘记了。

前两年做了个三维重建程序_第1张图片

前两年做了个三维重建程序_第2张图片

牛津的数据跟罗马城的数据格式不同,所以,写了两个不同的读取和处理的二进制文件,两个不同的calculator。——写完之后,感觉自己好像开始明白C++怎么用了。

搁置原因

目前这个领域有意义的方向,应该不是找能够确保 L2 最优的算法,而是对某个特定的结果,如何高效判断其是否全局 L2 最优。所以,找到一种迭代的、局部寻优的高效算法,实在也谈不上多优越。创新很小。

从最优化的角度找突破的路已经死掉了。随机优化的低效率和无法保证全局收敛特征,根本不适合这类对效率要求极高的应用。

既然都做出来了,不妨只是作为一种比较的标准让它们存在吧。偶然发现这个结果比Shawn等同学在ICCV上一个workshop里的结果漂亮得多。所以,还有参考价值。

业余乐一乐。

有这样一个寄生虫意义的网站,http://demo.netfoucs.com, 自己不创作任何内容,但是全文抓取CSDN博客上的文章,还把原文中作者信息和版权有关的信息抹掉。

这是侵权网站抓取的我的博客的内容和目录。

这样的人实在太无耻了。

我想联合一些同样被侵权的网友起诉这个网站,不知道CSDN是不是可以出头组织下?

你可能感兴趣的:(学习学习)