大量包含Insert语句的脚本文件批量执行导入数据

http://hi.baidu.com/ljm0211/item/acf758d40a4839866dce3fb3

        今天,同事让我帮忙处理这样一个问题:PM提供了数十个

.dat文件,每个文件中包含大量的Insert语句,比较大的dat文件达到了700多M,如何将这些数据快速的导入数据库中?
        最直接的做法是执行这些Insert语句,不过担心速度比较慢,或者大量的Insert语句执行,数据库的撤销段不够大导致出错。之前使用过Sql loader来进行过大量数据的导入,考虑能否将Insert语句处理成为使用分隔符分隔的数据,以便sql loader进行描述,来使用sql loader导入。查看一下dat文件发现,文件中的Insert语句占用了多行,而且文件比较多,处理起来工作量很大,而且有一定难度。在了解了一下这部分工作需要在什么时间完成之后,觉得时间还是比较宽裕的,还是觉得用批量执行dat中脚本的方式来导入会好一点。写好批量处理脚本,在服务器上可以一直Run,不再需要人工干预,也大大减轻了工作量。具体做法如下:
        使用Actual Search工具取得dat文件名列表,通过UE处理成为能在sqlplus中运行的脚本文件batchrun.sql,文件内容及格式如下(在sqlplus中运行sql脚本文件,需要使用"@"后接脚本文件全路径):
@ Z:\tab1.dat
@ Z:\tab2.dat
……
……
……
@ Z:\tabn.dat
        现在还有一个问题就是如果脚本在执行过程中某些sql出错如何记入log,以便查看。在sqlplus中使用spool命令来将执行结果记入log。
用法:
    在执行脚本前执行:spool
    然后执行脚本
    脚本执行结束后执行命令关闭结果输出:spool off
        这样在批量执行的结果就写入了文件中。
        好了,批量脚本在服务器上跑吧,你呢?该干什么干什么去吧,呵呵!

你可能感兴趣的:(数据库Oracle)