Hadoop数据复制方案 - IBM Big Replicate

您是否在考虑将数据从实验环境复制到生产环境,或者实现跨不同厂商的不同Hadoop发行版本之间复制数据,或者为了保证SLA而需要建设Hadoop异地容灾,或者需要实现Hadoop混合云?如果您觉得实现这类的需求非常困难、复杂、昂贵和耗时,那您应该尝试IBM Big Replicate。Big Replicate高性能的企业级复制技术能够为您解决这些问题。

Big Replicate是什么?

从基本意义上来讲,Big Replicate是一个或多个,部署在你想复制数据的集群上的代理服务器。作为代理服务器,它提供了一个抽象层,使我们远离对底层集群分布和版本的依赖,而只要集群支持Hadoop兼容的文件系统即可。API客户端应用程序连接的Fusion(WANdisco的产品,Big Replicate的核心模块)而不是HDFS,因此,它能统一了结合不同分布、不同版本、本地与云端存储的Hadoop集群。Big Replicate为跨任意距离的集群提供了单一虚拟命名空间,从而打破信息孤岛,实现Hadoop集群之间的自由、灵活数据复制。

实际上,Big Replicate的复制功能不限于Hadoop,它能跨云存储、本地或NFS文件系统之间复制数据。

Hadoop数据复制方案 - IBM Big Replicate_第1张图片

Big Replicate使用了WANdisco的专利复制引擎,它实现:

  • 活动事务复制,并在任何距离任意数量的集群间保证数据一致性。
  • 在一组集群和不同位置的文件夹基础上进行选择性复制。
  • 几乎为零的RTO /RPO。

Big Replicate能解决哪些问题?

IBM Big Replicate帮助您实现跨不同环境、不同发行版本、混合云之间的Hadoop数据移动。它实现了:

  • 100%可用性 - 总是处于运行状态,超过大多数SLA要求。
  • 降低成本 - Standby是Active完全可用的,而非Read-only。
  • 降低复杂性 - 简化备份、恢复、迁移和扩容操作。
  • 连接云的桥梁 - 无停机时间实现迁移到云,或者实现混合云。
  • 加快数据访问 - 实时数据复制,无论您在哪里需要。

对 Big Replicate 感兴趣的朋友不妨来试一试吧,下载地址如下:

http://bigdata.evget.com/product/444.html

你可能感兴趣的:(hadoop,数据分析,大数据,商业智能,数据复制)