最近项目中出现了一个功能存在性能问题,经过研究发现主要是出现在数据插入的时候,当时用的单条提交,发现性能极其差,因为项目中用的mybatis,所以考虑用批量提交的方式。
<!-- 批量提交 --> <insert id="batchInsertWithoutSeq" parameterType="java.util.List"> insert into ACC_AGGENTRY (SEQ, AGGENTRY_SEQ, THIACCOUNTSUM_SEQ, BUSDATA_FLAG, ENTRY_TYPE, FUND_PROPERTY, FIRSTACCOUNT_NAME, SECACCOUNT_NAME, THIACCOUNT_NAME, DEBIT_CREDIT, ORIGIN_CURR, ORIGIN_AMT, DOMESTIC_CURR, DOMESTIC_AMT, COST_CENTER, OTHER_NAME, DOC_TYPE, TRADE_DATE, TALLY_DATE, AGGENTRY_DATETIME, PRODUCT_FLAG, OFFLINE_DOCTYPE, DOC_NO, AIRPRO_DOM, ACCOUNT_MONTH, ITFC_DATETIME, ITFC_NAME, ACCOUNT_PROPERTY, BUSINESSTYPE,FIRST_ACCOUNT_CODE) <foreach collection="list" item="itm" index="index" separator="UNION ALL"> (select #{itm.seq,jdbcType=DECIMAL},#{itm.aggentrySeq,jdbcType=DECIMAL}, #{itm.thiaccountsumSeq,jdbcType=DECIMAL}, #{itm.busdataFlag,jdbcType=VARCHAR}, #{itm.entryType,jdbcType=VARCHAR}, #{itm.fundProperty,jdbcType=VARCHAR}, #{itm.firstaccountName,jdbcType=VARCHAR}, #{itm.secaccountName,jdbcType=VARCHAR}, #{itm.thiaccountName,jdbcType=VARCHAR}, #{itm.debitCredit,jdbcType=VARCHAR}, #{itm.originCurr,jdbcType=VARCHAR}, #{itm.originAmt,jdbcType=DECIMAL}, #{itm.domesticCurr,jdbcType=VARCHAR}, #{itm.domesticAmt,jdbcType=DECIMAL}, #{itm.costCenter,jdbcType=VARCHAR}, #{itm.otherName,jdbcType=VARCHAR}, #{itm.docType,jdbcType=VARCHAR}, #{itm.tradeDate,jdbcType=DECIMAL}, #{itm.tallyDate,jdbcType=DECIMAL}, #{itm.aggentryDatetime,jdbcType=DECIMAL}, #{itm.productFlag,jdbcType=VARCHAR}, #{itm.offlineDoctype,jdbcType=VARCHAR}, #{itm.docNo,jdbcType=VARCHAR}, #{itm.airproDom,jdbcType=VARCHAR}, #{itm.accountMonth,jdbcType=DECIMAL}, #{itm.itfcDatetime,jdbcType=DECIMAL}, #{itm.itfcName,jdbcType=VARCHAR}, #{itm.accountProperty,jdbcType=VARCHAR}, #{itm.businesstype,jdbcType=VARCHAR}, #{itm.firstAccountCode,jdbcType=VARCHAR} from dual) </foreach> </insert>
批量提交的核心功能
遇到的问题:如果一次提交的数据条数过大,比如3000条,就会报异常:无效主机/绑定变量 的异常,很模糊的一个错误,后来只能改成多次分批提交,具体分多少次一次多少条,当时测试1000条一次是没有问题。
希望遇到相同问题的人给予解释,谢谢