背景:无论在开发调试或者软件测试中,测试数据的准备是调试/测试执行前重要和必要的一个环节,因此以下几种方式可以快速插入大量数据:
第一种方法:
declare
-- Local variables here
m integer;
begin
-- Test statements here
--输出开始时间
dbms_output.put_line('start:'||sysdate);
m:=0;
--循环插入的数据量
for i in 1..1000000 loop
m:=m+1;
--插入语句,其中'admintest'||m, 为admintest后面加数字,以便标识每条记录都不一样
insert into KF_SEC_USER (USER_ID, GROUP_ID, EXTSYS_USER_ID, USER_NAME, USER_CNAME, PWD, MOBILE, PHONE, EMAIL, DESCRIPTION, ENABLED, HIS_ID, ROLES, TERMINAL_ID)
values (sys_guid(), '001', null,'admintest'||m, 'admin', '96E79218965EB72C92A549DD5A330112', '13560316185', null, null, null, null, null, null, null);
commit;
end loop;
--输出结束时间
dbms_output.put_line('end:'||sysdate);
end;
第二种方法:
--创建存储过程语句
CREATE OR REPLACE PROCEDURE p_insert
IS
--批量提交参数
num NUMBER;
BEGIN
FOR i IN 1..10000000 LOOP
--插入语句
insert into USERINFO (ID, NAME, AGE, ADDRESS, OCCUPATION_NAME)
values (1, 'ouhy', 25, '广东省佛山市南海区XXXX公司', '测试工程师); --执行插入
num:=num+1;
--5000笔提交一次,分批量提交,及时释放redo log buffer
IF Mod(num,5000)=0 THEN
COMMIT;
END IF;
END LOOP;
END;
--执行语句
begin
p_insert;
commit;
end;
Best Regards,
---------------------------------------------------------------
作者:whylaughing
博客地址:http://www.cnblogs.com/whylaughing/
注意事项:本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
有时候做实验测试
数据
用到
大量
数据
时可以用以下方法
插入
:方法一:使用xmltablecreate table bqh8 as select rownum as id from xmltable('1 to 10000000');select count(*) from bqh8;-----------------------一千万
条
数据
已
插入
。方法二:使用dual+connect by levelc...
DECLARE j number; s_sql varchar2(5000); BEGIN FOR j IN 1 .. 1000000 LOOP s_sql :=
insert
into collect_data select t.test_start_
begin
for i in 1 .. 1000000 loop
INSERT
INTO "DCA"."TEST_DATA" ("ID", "NAME1", "NAME2", "NA
首先我们需要建立一个表为tb_1,在里面添加一个(或多个)字段。这里我只添加一个字段为name并添加一行
数据
。然后我们可以在这个表中添加百万
条
数据
,方法如下:
一.借助
Oracle
中的dual表
select * from tb_1,(select level from dual connect by level <= 500000);
需求:
数据
迁移,从远端
数据
库查询
数据
写入到生产库中。遇到问题,
数据
量为千万级别(具体是6千多万
条
记录的
数据
),直接使用
insert
into 目标表 select * from
数据
源表。因为目标表本身有上千万
数据
,且有主键和索引,导致写表非常慢。执行了5,6个小时还没跑完,第二天看索性plsqldev已经卡死了。只能强行杀掉了plsqldev的进程。再看看
数据
,一
条
都没写进去,有点崩溃。。。...
oracle
在进行
大量
数据
批量
插入
时,若不进行分批次
插入
的话,则会报错
Cause: java.sql.SQLSyntaxErrorException: ORA-00913: 值过多
; bad SQL grammar []; nested exception is java.sql.SQLSyntaxErrorException: ORA-00913: 值过多
错误信息如上,正常情况而言,...
当需要对一个非常大的表
INSERT
的时候,会消耗非常多的资源,因为update表的时候,
oracle
需要生成 redo log和undo log;此时最好的解决办法是
insert
数据
时, 将表设置为nologging,速度是比较快的。这个时候
oracle
只会生成最低限度的必须的redo log,而没有一点undo信息。如果有可能将index也删除,重建。先看看实验结果:archivelog操作类型...