mysql利用存储过程批量插入一千万数据(半小时)

mysql利用存储过程批量插入一千万数据(半小时)

示例:
user表中插入一千万条数据,其中user_id11位手机号随机,可以重复;age为18-27之间;count随机金额,八位小数;status二百万数据为1,八百万数据为0。

-- 如果该名字存储过程已存在,则删除
DROP PROCEDURE IF EXISTS proc_initData1;
-- 创建
CREATE PROCEDURE proc_initData1 ( ) BEGIN
	DECLARE
		i INT DEFAULT 0;
	DECLARE
		uid VARCHAR ( 255 ) DEFAULT 0;
	DECLARE
		count DECIMAL(20,8) DEFAULT 0;
	DECLARE
		op INT DEFAULT 0;
	DECLARE
		age INT DEFAULT 0;
	START TRANSACTION;
	WHILE
			i <= 10000000 DO
		SELECT
			CONCAT( '1', CEILING( RAND( ) * 9000000000+1000000000 ) ) INTO uid;
		SELECT
			FLOOR( 18 + ( RAND( ) * 9 ) ) INTO age;
		SELECT
			ROUND( ( 10 + ( RAND( ) * 1001 ) ), 8 ) INTO count;
		IF
			i % 5 = 0 THEN
				INSERT INTO user ( user_id, age, count, status )
			VALUES
				( uid, age, count, 1);
			ELSE INSERT INTO ryw_intelligent_dog ( user_id, age, count, status)
			VALUES
				( uid, age, count, 0 );
		END IF;
		
		SET i = i + 1;
		
	END WHILE;
	COMMIT;
	
END

-- 调用
CALL proc_initData1 ( );


-- 删除表数据
truncate table user;

亲测需要半小时左右,前提删除索引,引擎innodb。
总结:在开始编写时并未使用事物手动提交,导致数据量插入非常慢。在批量插入大量数据时,要删除索引,并开启事物手动提交。