PB中的大数据量插入操作测试
2012-01-08 15:25
197 查看
计算工资是需要根据生产记录,逐条计算,并插入另外一张计算结果表,生产报表一个月有20来万条
方法一
(A)
PB中使用直接SQL 每条Insert后跟Commit ,3000条记录测试结果是23719耗秒.
(B)
PB中使用直接SQL 每100条后跟Commit,3000条记录测试结果是15780耗秒.
方法二
使用DataWidnow,当dw_1.rowcount()中满100条记录时执行一次dw_1.update(),3000条记录测试结果是3516耗秒
方法三
(A)
使用存储过程,PB中使用Execute Immediate :sql; commit; 3000条记录测试结果是10240耗秒.
(B)
使用存储过程,PB中使用Execute Immediate :sql; 每100条记录Commit;一次,3000条记录测试结果3750耗秒
结论,直接SQL每次需要动态编译故消耗较多时间,使用存储过程并多条插入语句执行一次事务提交性能跟使用dw_1类似,相对来说使用dw_1编程比较方便。不过需要注意设置SQLCA.autoCommit=fasle。
方法一
(A)
PB中使用直接SQL 每条Insert后跟Commit ,3000条记录测试结果是23719耗秒.
(B)
PB中使用直接SQL 每100条后跟Commit,3000条记录测试结果是15780耗秒.
方法二
使用DataWidnow,当dw_1.rowcount()中满100条记录时执行一次dw_1.update(),3000条记录测试结果是3516耗秒
方法三
(A)
使用存储过程,PB中使用Execute Immediate :sql; commit; 3000条记录测试结果是10240耗秒.
(B)
使用存储过程,PB中使用Execute Immediate :sql; 每100条记录Commit;一次,3000条记录测试结果3750耗秒
结论,直接SQL每次需要动态编译故消耗较多时间,使用存储过程并多条插入语句执行一次事务提交性能跟使用dw_1类似,相对来说使用dw_1编程比较方便。不过需要注意设置SQLCA.autoCommit=fasle。
相关文章推荐
- Skip list -- 跳跃表的插入删除搜索等ADT操作的实现与测试
- Delphi 操作SQL 插入一万条数据 三种方式速度测试
- 转:SQl大数据量操作效率以及日志测试
- NHibernate的大数据量插入的简单性能测试
- Android 编程下 SQLite 大数据量操作优化(插入操作)
- hibernate3 的常用操作(批量删除,批量插入,关联查询) (未测试)
- Junit中测试插入等无返回值的操作要注意的问题
- Junit中测试插入等无返回值的操作要注意的问题
- SQL Server 删除、插入、修改操作
- Spring+Hibernate大数据量插入DB的问题。
- 二叉排序树的各种操作及平衡测试
- framebuffer设备测试操作
- oracle批量插入测试数据
- SQLServer大数据量插入BULK INSERT
- Java实现单链表插入删除等基本操作
- MyBatisc常用批量操作以及插入数据返回主键
- shell编程:引用变量、内部变量、条件测试、字符串比较、整数比较、文件比较、逻辑操作、引号、通配符、调试执行
- C语言之单链表操作之插入
- 通过loadrunner 11常规通用的C语言API类型的Vuser 方式,测试验证MySQL数据库插入、查询、修改、删除数据性能脚本实例
- 链表操作:创建,插入,排序,反转