海量数据分析背后的新语义法

可以利用一个新型的混合系统来分析大量的数据,而该混合系统就是用在图形数据库中进行语义分析和分解的。想象一下如何才能分析维基百科里所有的英语词目?并且假设现在你手里得到的信息是维基百科的20倍,那你又该如何分析这些数据?这就是一直以来科学家处理千兆字节数据集时所面临的大挑战。美国西太平洋国家实验室、桑迪亚国家实验室和Cray公司的科学家开发出了一款应用,可以承担起分析如此大量数据的任务。这款新型的高性能计算应用程序利用语义因式分解(semantic factoring)来组织数据,推理出隐藏的关系和相关串联。 随后,该团队使用该程序为Billion Triple Challenge(一个国际竞赛,主要演示在处理大型语义图形数据库方面的能力和...

你可能感兴趣的:(分析,量数,新语)