用Redis存储大量数据

分享一下我老师大神的人工智能教程!零基础,通俗易懂!http://blog.csdn.net/jiangjunshow

也欢迎大家转载本篇文章。分享知识,造福人民,实现我们中华民族伟大复兴!

               
这里的大量,不是指数据单元的大小,而是key-value对的数量庞大。 Redis 一直被当作是一个小巧灵活的瑞士军刀在用,虽然其通过条件化的 snapshot 和 appendonlylog 等方式在一定程度上保证了数据的可靠性,但利用 Redis 进行大量数据的存储还是比较少。下面

这里的大量,不是指数据单元的大小,而是key-value对的数量庞大。

Redis 一直被当作是一个小巧灵活的瑞士军刀在用,虽然其通过条件化的 snapshot 和 appendonlylog 等方式在一定程度上保证了数据的可靠性,但利用Redis进行大量数据的存储还是比较少。下面的三篇文章,是用Redis进行大量数据存储的应用和测试。还不敢用Redis来放大量数据的同学,可以先壮壮胆。

  • redis 运维实际经验纪录之一:三千万数据,算不上海量,但也算是大量了,大数据量下的运维经验,值得学习。
  • 200,000,000 Keys in Redis 2.0.0-rc3:数了一下零,2个亿数据。
  • 1,250,000,000 Key/Value Pairs in Redis 2.0.0-rc3 on a 32GB Machine:同一个作者的第二篇测试文章,12.5亿数据。好吧,这个确实海量。
           

给我老师的人工智能教程打call!http://blog.csdn.net/jiangjunshow

这里写图片描述

你可能感兴趣的:(用Redis存储大量数据)