mysql更新优化:
一版的更新的话都是采用update set的方式,但是如果需要批量更新的话,只能for循环的执行更新。或者采用executeBatch的方式,执行更新。无论哪种方式,性能都不见得多好。
三千多条的更新,需要3分多钟。
查询了批量更新的优化,有说replace into的方式,即:
replace into tableName(id,status) values(id1,status1),(id2,status2),...,(idn,statusn)
这种方式,需要id是为主键。其更新方式是,执行更新的时候,发现id键存在的时候,先执行删除,然后再进行插入,如果id键不存在,则执行插入。所以,执行更新的时候,发现除了id,status这两个字段外,其他字段的值都为null。
所以这种方式不适合。
还有另外一种批量更新的方式:
insert into tableName(id,status) values(id1,status1),(id2,status2),...,(idn,statusn) on duplicate key update status=values(status)
这种方式与replace into的方式相似,也是需要id为主键,也是执行插入,在id存在的情况下,执行on duplicate key update 后面的更新,并不会删除原来的记录。
如果执行多个字段更新的话,就在on duplicate key update后面添加多个field=values(field),即:
INSERT INTO keywordtable(id, keyword, userName, userID) VALUES(1, '你好', 'Eliot', 22), (2, 'hello', 'Jhon', 23),
(3, '嘻嘻', 'Jim', 24) ON DUPLICATE KEY UPDATE keyword=VALUES(keyword), userName=VALUES(userName),userID=VALUES(userID);
优化后,执行一万多的数据更新,也仅耗时一点多秒