大数据,人工智能背后的基石

       半个多世纪的某个夏天,麦卡锡、明斯基等科学家们共同研究用机器模拟智能的问题,人工智能,也就是AI的概念被正式提出。如今人工智能的商业化正在快速发展,例如我们熟知的人像识别、图像识别、语音识别、自然语言处理、用户画像等等。对于未来而言,人工智能会在生活的方方面面发挥更多的作用。但是没有先前的大数据技术做铺垫,也不会有今天大红大紫的人工智能。

       大数据可以说是人工智能的基石,目前的深度学习主要就是建立在大数据的基础上的。

        人工智能主要有三个分支:

        1.基于规则的人工智能。

        2.无规则,计算机读取大量数据,根据数据的统计、概率分析等方法,进行智能处理的人工智能。

        3.基于神经元网络的一种深度学习。 

       基于规则的人工智能,即在计算机内根据规定的语法结构录入规则,用这些规则进行智能处理,缺乏灵活性,也不适合实用化。因此人工智能实际上的主流分支是后两者。

       而后两者都是通过“计算机读取大量数据,提升人工智能本身的能力和精准度”。如今,大量数据产生之后,有低成本的存储器将其存储,有高速的CPU对其进行处理,所以才使得人工智能后两个分支的理论得以实践。

       简单来说什么是大数据呢。从字面上来看,大数据被很多人定义成“大规模的数据”,但其实这个说法并不够准确。数据量庞大,并不代表着数据一定有可以被深度学习算法利用的价值。举个例子,地球公转的过程中,每秒记录一次地球相对太阳的运动速度、位置,可以得到大量的数据,但只是这样的数据,它的挖掘价值并不是特别高。

       大数据这里我们参阅马丁·希尔伯特的总结,今天我们常说的大数据其实是在2000年后,因为信息交换、信息存储、信息处理三个方面能力的大幅增长而产生的数据:

信息交换:据估算,从1986年到2007年这20年间,地球上每天可以通过既有信息通道交换的信息数量增长了约217倍,这些信息的数字化程度,则从1986年的约20%增长到2007年的约99.9%。在数字化信息爆炸式增长的过程里,每个参与信息交换的节点都可以在短时间内接收并存储大量数据。

信息存储:全球信息存储能力大约每3年翻一番。从1986年到2007年这20年间,全球信息存储能力增加了约120倍,所存储信息的数字化程度也从1986年的约1%增长到2007年的约94%。1986年时,即便用上我们所有的信息载体、存储手段,我们也不过能存储全世界所交换信息的大约1%,而2007年这个数字已经增长到大约16%。信息存储能力的增加为我们利用大数据提供了近乎无限的想象空间。

信息处理:有了海量的信息获取能力和信息存储能力,我们也必须有对这些信息进行整理、加工和分析的能力。谷歌、Facebook等公司在数据量逐渐增大的同时,也相应建立了灵活、强大的分布式数据处理集群。

       大数据在应用层面来说,往往可以取代传统意义上的抽样调查。大数据可以实时获取、往往混合了来自多个数据源的多维度信息,大数据的价值在于数据分析以及分析基础上的数据挖掘和智能决策。人工智能的发展离不开海量数据进行训练,究其根本,正是有了大数据的无数次训练和深度学习,才有了人工+智能。

       想要了解更多大数据和人工智能的知识,欢迎关注科多大数据。更多更新的行业资讯,我们与你分享。

你可能感兴趣的:(大数据,人工智能背后的基石)