百万级数据能这么干

阅读更多
    今天一上午就和供应商展开了激烈的火拼.
    我作为项目技术把关人,当然会鸡蛋里挑骨头。发现了系统的几个主要的缺陷,我觉得非常之不妥:
    1) 月结一百万甚至两百万的记录,能直接从服务上一次性拿到普通的PC机上面?
这不扯蛋吗?客户端要不程序死掉,要不内存溢出。服务器,广域网还不累个半死。
    2) 假设1)没有问题,下一步还得同时把数据写到类似银行的U盾(类似U盘)中去,如果写成功了,还得更新百万级数据的状态。U盘的速度能有多快呢?该过程会要持续很长。估计数据表都被锁定了。该表其它的用户就不能使用了。这真要命。应该分批分批的写入数据。
    3) U盘如果在系统运行过程中,如果松动或拔出,在重新插入,要把系统重启。这还不让人郁闷死?难道你把U盘拔出,还要重启操作系统?应该提供程序的健壮性。
    4) 6百个客户端直连数据库,保持长链接。这个一值保持怀疑的态度。我也写过测试,似乎没有问题,网上也说没有问题。但通常,较好的做法是在客户端和数据库中间有一个前置,由它统一处理。
    5) 客户端和服务端都通过数据库作为状态的同步。服务端根本不知道客户端处于什么状态,导致他们的数据不一致。通常都会用socket通讯,采用心跳机制。

    靠忽悠是不行的,还是要把系统设计好。价钱也不斐。

你可能感兴趣的:(Excel,DB2,笑话,Oracle,SQL,Server)