大数据分析:将大数据转化为巨额资金 第2章和第3章

 

第2章:为什么大数据很重要

了解大数据是什么并了解它的价值是两回事。即使了解大数据分析,信息的价值仍然难以可视化。乍一看,结构化,非结构化和半结构化数据的井似乎几乎是不可思议的,每个桶只是一个不相关的数据元素。

找出重要的事项及其重要性是从大数据井中汲取的第一步,也是避免信息淹没的关键。但是,这个问题仍然存在:为什么大数据很重要?对于中小型企业来说似乎很难回答,特别是那些已经避开过商业智能解决方案的企业,并且已经开始依赖其他方法来开发市场并实现目标。

对于企业市场而言,大数据分析已经证明了其价值,并且有很多例子。 Facebook,亚马逊和谷歌等公司已经开始依赖大数据分析作为其主要营销方案的一部分,以及更好地为客户提供服务的方式。

例如,亚马逊很好地利用其大数据来创建客户应该购买的产品的非常准确的表示。亚马逊通过存储每个客户的搜索和购买以及几乎任何其他可用信息来实现这一点,然后将算法应用于该信息以将一个客户信息与所有其他客户的信息进行比较。

结果是真实可测量的,它们为客户提供了实用的优势。例如,顾客在白雪皑皑的地区购买夹克。为什么不建议购买手套以匹配,或靴子,以及雪铲,冰融和轮胎链?对于店内人员来说,这些建议可能是自然而然的;对于亚马逊,大数据分析能够通过简单地查看客户正在购买的产品,购买产品的位置以及过去购买的产品来解读趋势并了解购买流程。 Thosedata与其他公共数据相结合,如人口普查,气象,安德森社交网络数据,创造了一种独特的能力,为客户和亚马逊提供服务。

对于Facebook而言,大致相同,大数据也可以用于关键功能,如朋友建议,有针对性的广告和其他以会员为中心的产品。 Facebook能够通过使用利用模式识别,数据混搭和其他一些数据源的分析来积累信息,例如用户的偏好,历史和当前活动。 这些数据以及来自所有其他用户的数据被挖掘出来,以创建有针对性的建议,这些建议被报告为对大多数用户而言非常准确。

大数据深陷

谷歌也利用大数据模型,它是使大数据成为可能的软件元素之一。然而,谷歌的方法和焦点与Facebook和亚马逊等公司的方法和焦点略有不同。 Google旨在最大限度地利用大数据,判断搜索结果,预测互联网流量使用情况,并使用Google自己的应用程序为客户提供服务。 从广告的角度来看,网络搜索可以通过深入研究网络搜索信息,用户偏好,cookie,历史等广泛的内容,与符合搜索标准的产品相关联。

当然,亚马逊,谷歌和Facebook都是庞大的企业,并且可以访问数PB的数据进行分析。 然而,它们并不仅仅是大数据如何影响业务流程的典型例子。例如,科学,医学和工程社区都有大量数据,通过实验,观察和案例研究收集大量数据。 例如,CERN的LargeHadron Collider每秒可以生成1PB的数据,为大数据的概念赋予了新的含义。 CERN依靠thosedata来确定使用复杂算法和分析的实验结果,这些算法和分析可能需要大量的时间和处理能力才能完成。

许多制药和医学研究公司与欧洲核子研究中心以及研究地震,天气和全球气候的组织属于同一类别。 所有这些都受益于大数据的概念。但是,这会让中小型企业走向何方? canthese实体如何从大数据分析中受益? 这些企业通常不会生成数PB的数据或处理大量的分类数据,或者它们是什么?

对于中小型企业(SMB),大数据分析可以为多个业务部门提供价值。 这是大数据分析市场中相对较新的发展。 中小型企业可以访问大量公开数据,包括大部分Web和社交网站。 一些托管服务也应运而生,它们可以为分析提供计算能力,存储和平台,将大数据分析市场转变为“随用随付,消耗您所需”的实体。 这证明对于中小型企业市场来说非常便宜,并且允许这些企业放慢速度并尝试大数据分析所能提供的功能。

由于数据量和成本的障碍有所消除,中小企业利用大数据仍然存在重大障碍。这些障碍包括数据的纯度,分析知识,对统计数据的理解以及其他一些哲学和教育挑战。 这一切都归结为分析数据,不仅仅是因为它们存在,而是出于特定的商业目的。

 

对于希望获得分析经验的中小型企业而言,转型的第一个地方就是网络,即用于分析网站流量。在这里,SMB可以使用像Blekko这样的工具(http://www.blekko.com

)查看网站的流量分布。这些信息对于依赖公司网站传播营销信息,销售商品或与当前和潜在客户沟通的人群非常有价值。 Blekko适合大数据范例,因为它查看多个大型数据集并创建具有有意义的可操作信息的视觉结果。使用Blekko,小型企业可以快速收集有关其网站的统计数据,并将其与竞争对手的网站进行比较。

 

尽管Blekko可能是大数据分析中最简单的例子之一,但它确实说明了即使是最简单的形式,BigData分析也可以使中小企业受益,就像它可以使大型企业受益一样。当然,其他工具存在,新的是一直到市场。随着这些工具的成熟和中小企业市场的可访问性,中小企业将有更多机会利用大数据概念。

收集数据通常是分析游戏中的一半.SMBs可以使用80Legs,Extractiv和Needlebase等工具搜索Web,所有这些工具都提供从Web收集数据的功能。 数据可以包括社交网络信息,销售清单,房地产清单,产品清单和产品评论,并且可以收集到结构化存储中然后进行分析。 收集到的数据证明对于那些希望通过分析来提升其市场排名的企业来说,这是一种可用的资源。

大数据,无论是在内部还是在托管产品上完成,都可以提供任何规模的估值业务 - 从寻求在其市场中寻找其位置的最小企业到寻求识别下一个世界范围趋势的最大企业。这一切都归结为以智能方式发现和利用数据。

 

我们这个世界的数据量已经爆炸式增长,分析大型数据集已经成为竞争的关键基础,支撑着生产力增长,创新和消费者剩余的新浪潮。每个部门的商业领袖都会直接或间接地考虑大数据的影响。

 

此外,随着多媒体,社交媒体,即时消息,电子邮件和其他互联网技术的兴起,企业和政府机构获得的信息数量和细节的增加将推动数据在可预见的未来呈指数级增长。其中一些增长可归因于合规性要求的提高,但这是数据量增加的一个关键因素,即日益增长的传感器和仪表化世界。示例包括RFID标签,配备GPS传感器的车辆,低成本的远程感知设备,仪表化的业务流程以及仪表化的网站交互。

 

关于大数据是否过大的问题很快就会出现,导致确定价值可能更加困难的情况。这将成为数据质量与数量相关的论据。然而,如果企业不准备处理数据管理,那么处理不断增长的数据源几乎是不可能的。

 

数据继续发展:

在2010年之前,管理数据是一项相对简单的工作:在线交易处理系统支持企业的业务流程,运营数据存储累积业务交易以支持运营报告,企业数据仓库累积和转换业务交易以支持运营和战略决策。

 

典型的企业现在每年的数据增长率为40%至60%,这反过来又增加了财务负担和数据管理的复杂性。这种情况意味着数据本身变得不那么有价值,更多的是对许多企业或低商品因素的负担

 

没有东西会离事实很远。更多的数据意味着更多的价值,无数的公司已经证明了大数据分析的公理。为了证明这一价值,人们只需看看垂直市场如何利用大数据分析,这将导致破坏性的变化。

 

例如,较小的零售商正在收集来自网站互动的点击流数据和来自传统零售业务的会员卡数据。这种销售点信息传统上被零售商用于购物篮分析和库存补充,但许多零售商现在更进一步,挖掘数据以进行客户购买分析。然后,这些零售商与供应商和软件公司共享这些数据(在标准化和身份清理之后),以提高供应链的效率。

 

另一个发现价值的例子来自科学世界,大规模的实验创造了大量的数据分析。大科学现在与大数据配对。大数据科学与大数据的合作有着深远的影响;它有助于重新定义数据的存储,挖掘和分析方式。大规模实验产生的数据多于实验室数据中心所能提供的数据(例如,欧洲核子研究中心的大型强子对撞机每年产生超过15个字节的数据),这反过来要求将数据立即转移到其他实验室进行处理 - 分布式分析和处理的真实模型。

其他科学任务是大数据行动的主要例子,推动了实验的执行和数据推理的颠覆性变革。由于采用大数据方法,大陆尺度的实验在政治和技术上都具有可行性(例如,海洋观测站倡议,国家生态观测网络和USArray,一个大陆尺度的地震观测台)。

 

大部分的破坏都来自于改进的仪器和传感技术;例如,大型天气测量望远镜有一个3.2千兆字节的像素摄像头,每年产生超过6PB的图像数据。正是大数据的平台正在实现这样的崇高目标。

 

大数据分析的验证可以通过先进的科学来说明。生物医药公司Bioinformatics最近宣布它已经减少了今天几年来对基因组进行测序所需的时间,并且还降低了成本,因此以1,000美元的价格对个体基因组进行测序是可行的,为改进诊断和个性化医疗铺平了道路。

 

金融业已经看到大数据及其相关分析如何对业务产生破坏性影响。金融服务公司通过较小的交易规模,增加的市场波动性以及自动化和算法标识中的技术改进来观察更大的数量。

 

数据和数据分析正在迅速发展

大数据范例的一个令人惊讶的结果是价值可以在数据中找到的位置的转变。 在过去,有一个固有的假设认为,大部分价值都可以在结构化数据中找到,这通常占存储数据总量的20%。其他80%的数据本质上是非结构化的,并且通常被认为具有有限或很少的价值

一旦搜索引擎提供商和电子零售商的成功表现出来,这种看法就开始发生变化。 正是对结构化数据的分析导致了点击流分析(针对电子零售商)和搜索引擎预测,这些预测启动了大量数据运动。成功处理大量结构化数据的第一个例子促使其他行业注意到 这反过来又导致企业挖掘和分析结构化和非结构化数据,以寻找竞争优势。

非结构化数据为分析过程带来了复杂性。人脸识别的图像处理,视频的搜索分类以及地理空间处理过程中的复杂数据集成等技术正成为处理非结构化数据的常态。 除此之外,还需要支持传统的基于交易的分析(例如,财务业绩),并且很容易看出复杂性呈指数级增长。 此外,还需要其他功能,例如Web点击流数据驱动行为分析。

行为分析是一个确定人与人之间以及人与系统交互数据行为模式的过程。 它需要大量数据才能构建准确的模型。 行为模式可以提供对导致事件的一系列动作的洞察(例如,客户销售或产品转换)。 一旦确定了这些模式,就可以将它们用于事务处理以影响客户的决策。

虽然交易数据分析的模型已被很好地理解,并且很多价值是通过结构化数据实现的,但是在行为分析中发现的价值允许创建更具预测性的模型。行为交互的理解较少,并且需要构建大量数据 准确的模型。 这是另一种情况,其中更多数据等于更多价值; 这得到了研究的支持,该研究表明,具有少量数据的复杂算法不如具有大量数据的简单算法准确。 可以在用于语音和手写识别以及众包的算法中找到这方面的证据。

 

未来是现在

处理非结构化数据的新发展几乎每天都会到达,其中最新和最重要的一个来自社交网站Twitter。理解其庞大的非结构化数据数据库是一个巨大的问题 - 实际上,它是如此巨大,以至于购买了另一家公司只是为了帮助它在大型数据存储中找到价值。 Twitter的成功主要围绕公司如何利用其用户生成的数据。这相当于来自现场主机的超过2亿个帐户的大量非结构化信息,每天产生2.3亿条Twitter消息。

 

为了解决这个问题,社交网络巨头购买了Storm的开发商BackType,这是一款可以解析诸如数百万Twitter feed所创建的liveata流的软件产品.Twitter发布了Storm的源代码,使其可供其他人使用追求技术。 Twitter对Storm的商业化不感兴趣。

 

Storm已经证明了它对Twitter的价值,Twitter现在可以实时执行分析,并在开发过程中识别趋势和新兴主题。例如,Twitter使用该软件来计算多个Twitter用户实时共享Web地址的程度。

 

凭借Storm提供的功能,公司可以实时处理BigData并获取能够带来竞争优势的知识。例如,使用一台机器计算网址的范围最多可达10分钟。但是,使用Stormcluster,这个工作负载可以分散到几十台机器上,并且可以在几秒钟内发现。对于从新兴趋势中赚钱的公司(例如广告代理商,金融服务和互联网营销商),加快处理速度至关重要。

 

与Twitter一样,许多组织发现他们可以访问大量数据,并且可以将所有形式的数据转换为可以提高效率,最大化利润和推出新趋势的信息。诀窍是尽快组织和分析数据,这个过程现在可以使用开源技术完成并集中在大数据的标题下。

 

其他例子还有很多非结构化,半结构化和结构化的大数据商店如何为业务部门提供价值。例如,使用在线购物服务LivingSocial,它利用Apache Hadoop数据处理平台等技术获取用户想要的信息。

 

这一过程使Living Social能够实时提供预测分析,从而更好地为其客户群提供服务。该公司并非单独寻求从其非结构化数据中榨取最大价值。其他主要的购物网站,购物比较网站和实体店的在线版本也实施了技术,将实时分析带到了客户互动的最前沿。

 

然而,在竞争激烈的市场中,寻找解释数据并加快处理速度的新方法被证明是关键的竞争优势,并通过新的创新和流程推动大数据分析的发展。那些企业和其他许多人都知道,所有形式的数据都不能被视为商品,正如黄金一样,通过挖掘,人们可以找到可以影响底线的价值金块。

 

第3章大数据和商业案例

 

大数据正迅速变得不仅仅是一个流行语。许多组织对大数据周围的技术进行了大量投资,目前正开始利用内容来发现真正的价值。

 

即便如此,大数据仍然存在很多混淆,类似于许多信息技术(IT)经理过去曾经历过的颠覆性技术。大数据破坏了商业智能(BI)在商业中的使用方式 - 这对许多高级管理人员来说是一个可怕的主张。

 

 

这种情况使首席技术官,首席信息官和IT经理处于不利的位置,试图证明破坏性技术将真正改善业务运营。进一步使这种情况复杂化的是内部大数据处理相关的高成本,以及非现场处理大数据分析的安全问题。

 

也许一些冲突来自大数据一词

 非技术人员可能会从字面上思考大数据,因为它与大问题和巨大成本相关联。将大数据呈现为“大分析”可能是赢得重要决策者的方式,同时为大数据所依赖的员工,技术和结果构建业务案例。

 

诀窍是超越大数据的公认定义 - 这意味着它只不过是用传统工具管理的数据集太大了 - 并解释说大数据是挖掘大型数据库价值的技术组合。

 

而大是这里的关键词,仅仅是因为大量的数据每秒都在收集 - 比以往任何时候都要多 - 这些数据的大小比现在的当前战略和技术实际管理的要大。

 

这创造了一场革命,大数据已成为数据海啸的中心,以及它将如何改变企业流程的执行。这些变化包括提高效率,建立新的收益发现流程以及推动创新。大数据已经迅速发展,从围绕技术圈的新流行语转变为实际的定义,即大分析。

 

实现价值

许多行业 - 包括医疗保健,公共部门,零售和制造业 - 显然可以从分析他们迅速增长的数据堆中获益。 收集和分析交易数据,使组织更深入地了解客户的偏好,这样数据就可以作为产品和服务创建的基础。这使组织能够及时,更具竞争力地解决新出现的问题。使用Big 因此,数据分析正在成为个体企业竞争和增长的关键基础,并且很可能会引发新的生产力,增长和消费者剩余浪潮。

大数据的案例

为大数据项目构建有效的业务案例涉及识别可以直接与业务流程相关联的几个关键元素,并且易于理解和量化。这些要素包括知识发现,可操作信息,短期和长期利益,痛点解决方案以及其他一些通过提供洞察力来改善业务流程的方法。

 

在大多数情况下,大数据在引入企业时是一个破坏性因素,这种中断包括规模,存储和数据中心设计问题。中断通常涉及与硬件,软件,人员和支持相关的成本,所有这些都会影响底线。这意味着投资回报率(ROI)和总拥有成本(TCO)是大数据业务计划的关键要素。在降低TCO的同时加快投资回报率的诀窍。最简单的方法是将大数据业务计划与由业务需求驱动的其他IT项目相关联。

 

虽然这听起来像是一个真正的挑战,但企业实际上正在投资存储技术并改进处理以满足其他业务目标,例如合规性,数据存档,云计划和连续性计划。由于大数据的两个主要需求:存储和处理,这些举措可以为大数据项目提供基础。最近,业务IT解决方案的自然增长主要集中在具有分布式特性的过程中,其中存储和应用程序分布在多个系统和位置。这也是大数据的自然伴侣,进一步帮助奠定了Big Analytics的基础。构建业务案例涉及使用案例场景和提供支持信息。存在大量示例,包括几个业务案例草案,案例场景和其他抵押品,所有这些都是涉及大数据解决方案的主要供应商。拥有大量抵押品的Notablevendors包括IBM,Oracle和HP。虽然没有设置构建业务案例的公式,但有一些关键元素可用于定义业务案例的外观,这有助于确保成功大数据项目。

 

大数据分析的可靠业务案例应包括以下内容:

 

该项目的完整背景。

 这包括项目的驱动因素,其他人如何使用大数据,大数据将与哪些业务流程保持一致,以及实现项目的总体目标。

 

福利分析。

 通常很难将BigData的好处量化为静态和有形的。大数据分析的全部内容都是关于数据的解释和模式的可视化,这与主观分析有很大关系,高度依赖人类来翻译结果。但是,这并不妨碍商业案例将大数据带来的利益纳入非主观条款(例如,确定销售趋势,确定可能的库存缩减,量化运输延迟或衡量客户满意度)。诀窍是调整项目的好处满足业务流程或需求的需求。这方面的一个例子是识别业务目标,例如年增长率为5%,以及大数据分析如何帮助实现该目标。

 

选项。

 BigData的目的地有几条路径,从内部大铁解决方案(运行大型主机系统的数据中心)到云中的托管产品,再到两者的混合。重要的是研究这些选项并确定如何实现大数据分析,以及每个选项的利弊。偏好和利益也应该突出,允许财务决策与技术决策相关联。

范围和成本。范围更像是一个管理问题而非物理部署问题。这一切都归结为实施范围如何影响资源,尤其是人员和员工。范围问题应确定项目的人员和时间,定义人员工时和技术专业知识,以及培训和辅助要素。成本还应与人员配置和培训问题相关联,这有助于为TCO计算创建全局,并为准确的ROI计算提供基础。

 

风险分析。

 计算风险可能是一项复杂的工作。但是,由于大数据分析确实是提供BI的业务流程,因此风险计算可以包括与技术提供的优势相比无所事事的成本。要考虑的其他风险是安全隐患(数据存在且谁可以访问它),CPU开销(分析是否会限制一系列业务应用程序的处理能力),兼容性和集成问题(安装和操作是否与现有技术一起使用)技术)和业务流程的中断(安装会造成停机)。所有这些要素都可以通过大规模项目来考虑风险,并且应该被考虑用来构建一个可靠的商业案例。

 

当然,商业案例中最关键的主题是投资回报率。组织可能收到的与项目成本相关的回报或收益是随着更多研究和建立业务案例时收集信息而变化的比率。理想情况下,随着更多研究的进行以及业务案例编写者从大数据分析解决方案的实施中发现其他价值,ROI与成本比率会有所提高。然而,投资回报率通常是决定项目最终是否会向前发展的最重要因素。 ROI的确定已成为公司和非营利组织首先参与业务案例流程的主要原因之一。

 

大数据的兴起

Teradata,IBM,惠普,甲骨文以及许多其他公司已经提供了超过十年的TB级数据仓库,但是这些优势已经针对数据仓库是主要目标的流程进行了调整。今天,数据倾向于以更广泛的格式收集和存储,并且可以包括结构化,半结构化和结构化元素,每个元素往往具有不同的存储和管理要求。对于大数据分析,数据必须能够跨多个服务器并行处理。这是必要的,要分析大量的信息。

 

除了从数据库中详尽维护的事务数据和驻留在数据仓库中的精心挑选的数据之外,组织还从服务器和机器生成的数据形式,来自内部和外部社交网络的客户评论以及其他松散,非结构化的来源中获取大量日志数据。数据。

 

由于Moore'sLaw,这些数据集以指数速度增长。摩尔定律指出,可以放置在处理器晶圆上的晶体管数量大约每18个月增加一倍。每一代新一代处理器的功能都是其最新产品的两倍。同样,新服务器的功能也每18个月增加一倍,这意味着它们的活动将产生相应更大的数据集。

 

大数据方法代表了数据处理方式的重大转变。过去,经过精心挑选的数据通过网络传输到数据仓库,在那里可以进一步检查。但是,随着数据量的增加,网络成为瓶颈。这是一种分布式平台(如Hadoop)发挥作用的情况。分布式系统允许分析发生在数据所在的位置。

 

传统数据系统无法有效处理大数据,因为这些系统不是为处理今天的各种数据而设计的,这些数据往往具有更少的结构,或者因为数据系统无法快速,经济地扩展。大数据分析与传统BI的工作方式大不相同,传统BI通常依赖于放置在数据仓库中的用户数据的干净子集,以有限的多种预定方式进行查询。

大数据采用了一种非常不同的方法,其中所有数据组织生成都被收集并与之交互。这允许管理员和分析师担心以后如何使用数据。从某种意义上说,大数据解决方案比传统数据库和数据仓库更具可扩展性。

 

为了理解围绕大数据的选择是如何发展的,人们必须回到Hadoop的诞生和大数据运动的曙光.Hadoop的根源可以追溯到2004年谷歌白皮书,该白皮书描述了谷歌为分析不同数据而建立的基础设施。服务器,使用名为Bigtable的索引系统。 Google保留了大量供内部使用,但已经创建了Lucene和Solr开源搜索引擎的开发人员Doug Cutting创建了一个开源版本的Bigtable,在他儿子的大象之后命名技术Hadoop。

 

Hadoop的第一批采用者之一是雅虎,它致力于大量的工程工作,以便在2006年左右完善技术。雅虎的主要挑战是理解分离系统中存储的大量有趣数据。统一这些数据并将它们作为一个整体进行分析成为雅虎的一个关键目标,而Hadoop最终成为实现这一目标的理想平台。如今,雅虎是Hadoop的最大用户之一,并已将其部署在超过40,000台服务器上

 

该公司将该技术用于多个商业案例和分析工作。雅虎的Hadoop集群拥有用户点击的故事和部分的大量日志文件;还存储广告活动,以及雅虎发布的所有内容和文章的列表。对于雅虎而言,Hadoop已被证明非常适合在大量文本中搜索模式。

 

超越HADOOP

 

在大数据领域中熟悉的另一个名称是Cassandra数据库,这种技术可以在一行中存储200万列。这使得Cassandra非常适合将更多数据附加到现有用户帐户,而无需提前知道数据的格式。

 

Cassandra的根源还可以追溯到在线服务提供商,在这种情况下,Facebook需要一个庞大的分布式数据库来支持服务的收件箱搜索。与雅虎一样,Facebook希望使用Google Bigtable架构,该架构可以提供面向列和面向数据库的结构,可以在大量节点上传播。

 

但是,Bigtable有一个严重的限制:它使用了面向主节点的设计。 Bigtable依赖于单个节点来协调所有节点上的所有读写活动。这意味着如果头节点发生故障,整个系统将毫无用处。

 

Cassandra建立在一个名为Dynamo的分布式架构上,亚马逊的工程师在2007年的白皮书中描述了它.Amazon使用Dynamo来跟踪其数百万在线客户在他们的购物车中所放置的内容。

 

Dynamo给了Cassandra优于Bigtable的优势,因为Dynamo不依赖于任何一个主节点。任何节点都可以接受整个系统的数据,以及回答查询。数据在多个主机上复制,创建弹性并消除单点故障。

 

与选择的结合

最初由在线服务提供商开发的许多工具越来越多地作为开源软件供企业使用。除了大型在线服务提供商之外,大数据工具正在由更广泛的组织进行测试。金融机构,电信,政府机构,公用事业公司,零售和能源公司都在测试大数据系统。

当然,更多的选择可以使决策更加困难,这可能是将满足项目需求的业务计划整合在一起而不会在流程中引入任何额外不确定性的最大挑战之一。理想情况下,大数据业务计划可以简化支持长期战略分析和一次性交易和行为分析的主要目标,从而带来直接利益和长期利益。

 

虽然Hadoop适用于大多数企业,但它并不是城里唯一的游戏(至少在开源实现时)。一旦组织决定利用其机器生成的社交网络数据,建立基础设施将不是最大的挑战。最大的挑战可能来自决定单独使用开源或转向大数据技术的商业实施。 Cloudera,Hortonworks和MapR等供应商正在将Big Datatechnologies商业化,使其更易于部署和管理。

 

再加上云服务提供商不断增长的大数据点播服务,决策过程变得更加复杂。决策者必须投入研究并进行尽职调查,以选择适当的平台和实施方法,以使商业计划取得成功。但是,大部分工作都可以在业务计划开发阶段完成,因为可以权衡各种大数据方法的优缺点,然后根据业务计划的总体目标进行衡量。哪种技术能够以最快的成本实现最低成本,而且不会影响未来的能力?

你可能感兴趣的:(大数据平台,hadoop,平台)