DB2 import txt文件,数据以|分割导入数据库

 

先上命令:

 import from  xxx.txt(文件路径) of del  modified by  codepage=1208 COLDEL|  compound=100 commitcount 10000  MESSAGES xxx.log(打印的日志要存放的路径) insert into table_name(数据表名称)      

   选项解释: 

       codepage=1208(这个是关于数据库编码的,要选择和数据库相同的编码格式,不然会中文乱码)

       coldel*    *表示数据中每一行中数据字段的分割符,如 | , $等等

       compound=100(1~100)     一般越大导入速度越快(是否影响其他性能,没有做过测试) 

       commitcount 10000   多少条提交一次,不做设置的话,import是每一条插入一次提交一次影响速度

      MESSAGES     打印日志到日志文件,没有配置的话日志是一条条的打印到控制台,不方便浏览,也不方便差错。

 

比较数据(测试次数量少,不具有代表性):

       100万数据亮导入数据库要大约3分钟

       1200万数据大约用了时间9分钟不到  

 

遇到的问题:

  当我多次操作导入数据,删除数据操作之后,突然报错:The table cannot be accessed, because it is inactive

  执行命令:

               reorg table [table]   问题解决

   注视:reorg table [table]命令是通过重构行来消除“碎片”数据并压缩信息,对表进行重组的

  

 

       

          

 

你可能感兴趣的:(DB2 import txt文件,数据以|分割导入数据库)