多核,并行计算和摩尔定律浅谈

这是我今年在所平台上学术频道里讨论时写的,后来转到了科学网的博客上,今天读读,感觉不错,拿到CSDN上来。

 

 

关于Moore定律,当单处理器性能不再提升时,就应该基本上失效了。Intel的人也说,当初维护摩尔定律,除去客观发展因素,很大部分也是人为的。格登.莫尔提出了摩尔定律,他的英特尔公司,作为芯片领头羊也一直执行并维护这个定律。然而,这个定律的商业价值显然远远大于其学术价值。正是这个像“魔咒预言”一样的定律,影响了整个的半导体产业,也间接影响了计算机产业的发展,还制约了很多原本很创新的想法和企业。计算机设计不再是根据真正用户的需求作为目标,片面追逐高主频和CPU性能使得摩尔定律成为了计算机向前发展的禁锢。

摩尔定律一直主导了个人计算机的升级换代,也间接主导了整个IT产业的升级换代,包括HPC从向量机和MPP向Cluster的转换。众多的消费者和企业不断的升级,更换自己的机器。微软也紧跟随着这一趋势,操作系统不断地提高着对CPU的需求。当大量的金钱投入换来更快的处理器和新版本Windows,处理器的实际利用率有多高提升?人们能从那些提高的主频中获得多少真正需要的受益?
多核,并行计算和摩尔定律浅谈_第1张图片
格登.摩尔 英特尔创始人和摩尔定律创造者

“如果要给这个任务的完成加上一个期限,我希望是——18个月”

而今,那个时代过去了。Memory Wall+Power Wall+ILP Wall=Brick Wall,硬件的限制使得主频的提升达到了极限,"摩尔定律"成为一个谎言,当我们跳出英特尔的樊笼之后,却发现多核绑着并行大摇大摆的来了,这世界真是无比的奇妙。

当硬件的物理限制使得处理器厂商撞墙之后,借鉴并行计算而转向多核提高性能成为下一个趋势。2-4核已经成为主流,消费者还会继续为其买单吗?并行程序的性能获得远远不再像串行那样简单了。Berkeley指出Memory Wall, Power Wall, ILP Wall将有可能因为多核而更加严重,通信和存储器可能成为整体功耗的主要部分。而更加严重的是软硬件的鸿沟越来越大,编程越来越困难,系统实际利用率越来越低。并行软件的滞后,并行编程模型和并行应用的缺乏已经成为发展的主要阻碍。

尽管困难重重,对于benchmark更快的处理器和配套计算机总是被制造出来的,而相应的算法和使用方法也会被创造出来,然而它能不能真的让我们更好用,能不能更好的解决我们实际中需要迫切解决的问题?计算机是否该不再只关注测试集的数值?是否能真正地提高人的效率?是否能让系统去适应软件或算法?是否能让用户更方便使用?

正如任何一个独立思考的人所能理解的,计算机的发展,不应该依靠某个经验上的预测估计,也不能完全成为商业博弈的棋子。无论是硬件还是软件,都需要按照能更好的为人类服务,能更大限度地满足人们需求而服务。

一点想法,请老师们批评指正。

你可能感兴趣的:(多核,并行计算和摩尔定律浅谈)