效率

最近找了很多公版的电子书籍来阅读,一部分是下载到电脑里的文本文档,一部分是网上的可复制的内容。虽然资料都不缺,但这些文档零零散散地放在不同的地方,查阅起来并不是件容易的事情。比如对某些已知内容的定位,有些网络文档并没有书签功能,或者是有限的书签功能,标注功能也不是很强,尽管之前在看过的地方做了些标记,回头看时可能已经不着北了。所以我喜欢分门别类的整理好到自己的电脑上,使用统一格式进行存放。我比较喜欢使用Word的形式,因为Word有丰富的格式编辑功能,有搜索替换功能,以及可以进行修订批注,以方便将来查阅。

不过书籍整理也是一门学问,一些阅读平台虽然有书籍分类理事功能,但其内容是经过保护的,并不方便导出来。还有就是公开的资源,我目前找书的范围主要就是这些开放的资源。不过为了不影浏览速度,这些网站一般分章分节地把文章放在网上,比如一部长篇小说就能几十上百个页面,如果你想把所有的内容都看一遍,就得点上几十上百遍,如果想回顾中间的某段内容,有时你还得先跳回到目录页,再去定位到的相应的章节页面,然后再在找到页面里翻到相应的内容,这样的阅读体验实际不是很好的,远不如书本翻的快。为了方便,那就要把这些散乱的内容整合到一起。刚开始的时候,我是一个一个网页地点开始,然后复制粘贴,形成了一个整体的Word文档。但到了后来,需要整理的文章越来越多,这样操作的效率就明显低下了,单单一本书就可能消耗十几分钟半个小时,一天下来整不了几本书,而且当中可能会犯错,比如缺页了,重复了什么的,之后再做校对,这样的效率会更低。 假设平均每本书需要0.5个小时,每天工作8小时,这样算下来,1000本书光整理出来就要2个多月,这里边还不包括那些百万字的大部头。

我就在想能不能将这些合并的工作交给电脑来做?理论来讲这是可行的,不过编程序也是耗费时间的,但只要编程的时间远远小于手动整理的时间,我觉得这就是可以做的。我分析了一下,比较耗时的操作主要是打开链接,复制粘贴上,复制一个章节鼠标就要点上好多次,还要在桌面不停地移来移去,键盘也要跟着不停地操作,搞不好就会失误,毕竟人不是机器吗,如果将这些机械操作留给电脑去做就好了。让计算机去做,好解决的就是自动打开链接,并对内容进行解析,将得到了内容在安顺序拼合成一个完整的文档。对于这几项内容,技术是都可以实现的,于是我着手写了一些代码,并完成了单篇文章的整理功能,即告诉程序的目录网址,它就可以一个完整的内容给输出来,经过这样的一改造,效率立马上升了,只要选好一本书,点一下按钮,一本完整的书几秒钟内就出来了。 这样的效率提高的就不是一点半点,而是飞跃式的,按这种效率1000本书可能两三天就出来,这节省下来的时间就可以让自己慢慢地阅读了。

当然,这个效率还是不算高的。比如某一作者的作品很多,有时候为了研究这个作者的思想,就需要把他的作品全部集在一块来看了,比如鲁迅,他出过的书有几十本,如果通过粘贴复制的方式,把一本本独立的书拼合在一起,那也是非常耗时的。这个在读日本作品的时候犹为明显,日本的近代作家只要是出名一点的,基本上是著作奥等身的,一生中写个几十部作品都是很正常的,为了将同作者的作品整成一个集子,我将程序稍改了一下,用机器去将都的书进行归纳,然后拼合一起形成一个整体的文档。原来,我要整理一个作者的文章,少则十来分钟,多则个把小时,时间多少要看作者的作品数量,如果一个作者的作品有上百部,那这个合并的过程是非常耗时的,而我又不是专业的编辑,我的目标只是要看其中的内容,所以将时间消耗在这上边是不值得的,但又没有人帮你做这事,那只能自己动手了。我改了程序之后,拼合一个作者的内容基本上是秒级别的,一个小时内容整合几十个作者的作品是没有一点问题的。

其实亏得技术的进步,让我们这些本读不了许多书的人,有了读很多书的机会。但现在又是个快节奏的社会,读书同样需要效率,我们要尽可能使用技术的手段减少在非读书时间的消耗上。否则,当你找好几本要读的书的时候,人家已经把这几书读完了,虽然资源对大家都是平等的,但效率高的人就会占一定的优势,我们需要向前奔跑,但要讲究方法地跑,又不是一边跑,一边还要开山挖洞,这样你还没跑就已经落后了。因此,提高自己阅读的效率是不可忽视的。

你可能感兴趣的:(效率)