0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

利用JAVA向Mysql插入一亿数量级数据

Android编程精选 来源:CSDN 2023-04-03 10:00 次阅读

利用JAVA向Mysql插入一亿数量级数据—效率测评

这几天研究mysql优化中查询效率时,发现测试的数据太少(10万级别),利用 EXPLAIN 比较不同的 SQL 语句,不能够得到比较有效的测评数据,大多模棱两可,不敢通过这些数据下定论。

所以通过随机生成人的姓名、年龄、性别、电话、email、地址 ,向mysql数据库大量插入数据,便于用大量的数据测试 SQL 语句优化效率。、在生成过程中发现使用不同的方法,效率天差万别。

1、先上Mysql数据库,随机生成的人员数据图。分别是ID、姓名、性别、年龄、Email、电话、住址。

下图一共三千三百万数据:

45faa910-d14a-11ed-bfe3-dac502259ad0.png

在数据量在亿级别时,别点下面按钮,会导致Navicat持续加载这亿级别的数据,导致电脑死机。~觉着自己电脑配置不错的可以去试试,可能会有惊喜

4614c354-d14a-11ed-bfe3-dac502259ad0.png

2、本次测评一共通过三种策略,五种情况,进行大批量数据插入测试

策略分别是:

Mybatis 轻量级框架插入(无事务)

采用JDBC直接处理(开启事务、无事务)

采用JDBC批处理(开启事务、无事务)

测试结果:

Mybatis轻量级插入 -> JDBC直接处理 -> JDBC 批处理。

JDBC 批处理,效率最高

第一种策略测试:

2.1 Mybatis 轻量级框架插入(无事务)

Mybatis是一个轻量级框架,它比hibernate轻便、效率高。

但是处理大批量的数据插入操作时,需要过程中实现一个ORM的转换,本次测试存在实例,以及未开启事务,导致mybatis效率很一般。

这里实验内容是:

利用Spring框架生成mapper实例、创建人物实例对象

循环更改该实例对象属性、并插入。

//代码内无事务

privatelongbegin=33112001;//起始id
privatelongend=begin+100000;//每次循环插入的数据量
privateStringurl="jdbc//localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&characterEncoding=UTF-8";
privateStringuser="root";
privateStringpassword="0203";


@org.junit.Test
publicvoidinsertBigData2()
{
//加载Spring,以及得到PersonMapper实例对象。这里创建的时间并不对最后结果产生很大的影响
ApplicationContextcontext=newClassPathXmlApplicationContext("applicationContext.xml");
PersonMapperpMapper=(PersonMapper)context.getBean("personMapper");
//创建一个人实例
Personperson=newPerson();
//计开始时间
longbTime=System.currentTimeMillis();
//开始循环,循环次数500W次。
for(inti=0;i<5000000;i++)
        {
            //为person赋值
            person.setId(i);
            person.setName(RandomValue.getChineseName());
            person.setSex(RandomValue.name_sex);
            person.setAge(RandomValue.getNum(1, 100));
            person.setEmail(RandomValue.getEmail(4,15));
            person.setTel(RandomValue.getTel());
            person.setAddress(RandomValue.getRoad());
            //执行插入语句
            pMapper.insert(person);
            begin++;
        }
        //计结束时间
        long eTime = System.currentTimeMillis();
        System.out.println("插入500W条数据耗时:"+(eTime-bTime));
    }

本想测试插入五百万条数据,但是实际运行过程中太慢,中途不得不终止程序。最后得到52W数据,大约耗时两首歌的时间(7~9分钟)。随后,利用mybatis向mysql插入10000数据。

结果如下:

利用mybatis插入 一万 条数据耗时:28613,即28.6秒

465531b4-d14a-11ed-bfe3-dac502259ad0.png

第二种策略测试:

2.2 采用JDBC直接处理(开启事务、关闭事务)

采用JDBC直接处理的策略,这里的实验内容分为开启事务、未开启事务是两种,过程均如下:

利用PreparedStatment预编译

循环,插入对应数据,并存入

事务对于插入数据有多大的影响呢? 看下面的实验结果:

//该代码为开启事务
privatelongbegin=33112001;//起始id
privatelongend=begin+100000;//每次循环插入的数据量
privateStringurl="jdbc//localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&characterEncoding=UTF-8";
privateStringuser="root";
privateStringpassword="0203";


@org.junit.Test
publicvoidinsertBigData3(){
//定义连接、statement对象
Connectionconn=null;
PreparedStatementpstm=null;
try{
//加载jdbc驱动
Class.forName("com.mysql.jdbc.Driver");
//连接mysql
conn=DriverManager.getConnection(url,user,password);
//将自动提交关闭
conn.setAutoCommit(false);
//编写sql
Stringsql="INSERTINTOpersonVALUES(?,?,?,?,?,?,?)";
//预编译sql
pstm=conn.prepareStatement(sql);
//开始总计时
longbTime1=System.currentTimeMillis();

//循环10次,每次一万数据,一共10万
for(inti=0;i<10;i++) {
                //开启分段计时,计1W数据耗时
                long bTime = System.currentTimeMillis();
                //开始循环
                while (begin < end) {
                    //赋值
                    pstm.setLong(1, begin);
                    pstm.setString(2, RandomValue.getChineseName());
                    pstm.setString(3, RandomValue.name_sex);
                    pstm.setInt(4, RandomValue.getNum(1, 100));
                    pstm.setString(5, RandomValue.getEmail(4, 15));
                    pstm.setString(6, RandomValue.getTel());
                    pstm.setString(7, RandomValue.getRoad());
                    //执行sql
                    pstm.execute();
                    begin++;
                }
                //提交事务
                conn.commit();
                //边界值自增10W
                end += 10000;
                //关闭分段计时
                long eTime = System.currentTimeMillis();
                //输出
                System.out.println("成功插入1W条数据耗时:"+(eTime-bTime));
            }
            //关闭总计时
            long eTime1 = System.currentTimeMillis();
            //输出
            System.out.println("插入10W数据共耗时:"+(eTime1-bTime1));
        } catch (SQLException e) {
            e.printStackTrace();
        } catch (ClassNotFoundException e1) {
            e1.printStackTrace();
        }
    }

1、我们首先利用上述代码测试无事务状态下,插入10W条数据需要耗时多少。

如图:

468035d0-d14a-11ed-bfe3-dac502259ad0.png

成功插入1W条数据耗时:21603
成功插入1W条数据耗时:20537
成功插入1W条数据耗时:20470
成功插入1W条数据耗时:21160
成功插入1W条数据耗时:23270
成功插入1W条数据耗时:21230
成功插入1W条数据耗时:20372
成功插入1W条数据耗时:22608
成功插入1W条数据耗时:20361
成功插入1W条数据耗时:20494
插入10W数据共耗时:212106

实验结论如下:

在未开启事务的情况下,平均每 21.2 秒插入 一万 数据。

接着我们测试开启事务后,插入十万条数据耗时,如图:

46aa1e40-d14a-11ed-bfe3-dac502259ad0.png

成功插入1W条数据耗时:4938
成功插入1W条数据耗时:3518
成功插入1W条数据耗时:3713
成功插入1W条数据耗时:3883
成功插入1W条数据耗时:3872
成功插入1W条数据耗时:3873
成功插入1W条数据耗时:3863
成功插入1W条数据耗时:3819
成功插入1W条数据耗时:3933
成功插入1W条数据耗时:3811
插入10W数据共耗时:39255

实验结论如下:

开启事务后,平均每 3.9 秒插入 一万 数据

第三种策略测试:

2.3 采用JDBC批处理(开启事务、无事务)

采用JDBC批处理时需要注意一下几点:

1、在URL连接时需要开启批处理、以及预编译

Stringurl=“jdbc//localhost:3306/User?rewriteBatched
-Statements=true&useServerPrepStmts=false”;

2、PreparedStatement预处理sql语句必须放在循环体外

代码如下:

privatelongbegin=33112001;//起始id
privatelongend=begin+100000;//每次循环插入的数据量
privateStringurl="jdbc//localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&characterEncoding=UTF-8";
privateStringuser="root";
privateStringpassword="0203";


@org.junit.Test
publicvoidinsertBigData(){
//定义连接、statement对象
Connectionconn=null;
PreparedStatementpstm=null;
try{
//加载jdbc驱动
Class.forName("com.mysql.jdbc.Driver");
//连接mysql
conn=DriverManager.getConnection(url,user,password);
//将自动提交关闭
//conn.setAutoCommit(false);
//编写sql
Stringsql="INSERTINTOpersonVALUES(?,?,?,?,?,?,?)";
//预编译sql
pstm=conn.prepareStatement(sql);
//开始总计时
longbTime1=System.currentTimeMillis();

//循环10次,每次十万数据,一共1000万
for(inti=0;i<10;i++) {

            //开启分段计时,计1W数据耗时
            long bTime = System.currentTimeMillis();
            //开始循环
            while (begin < end) {
                //赋值
                pstm.setLong(1, begin);
                pstm.setString(2, RandomValue.getChineseName());
                pstm.setString(3, RandomValue.name_sex);
                pstm.setInt(4, RandomValue.getNum(1, 100));
                pstm.setString(5, RandomValue.getEmail(4, 15));
                pstm.setString(6, RandomValue.getTel());
                pstm.setString(7, RandomValue.getRoad());
                //添加到同一个批处理中
                pstm.addBatch();
                begin++;
            }
            //执行批处理
            pstm.executeBatch();
           //提交事务
  //        conn.commit();
            //边界值自增10W
            end += 100000;
            //关闭分段计时
            long eTime = System.currentTimeMillis();
            //输出
            System.out.println("成功插入10W条数据耗时:"+(eTime-bTime));
        }
        //关闭总计时
        long eTime1 = System.currentTimeMillis();
        //输出
        System.out.println("插入100W数据共耗时:"+(eTime1-bTime1));
    } catch (SQLException e) {
        e.printStackTrace();
    } catch (ClassNotFoundException e1) {
        e1.printStackTrace();
    }
}

首先开始测试

无事务,每次循环插入10W条数据,循环10次,一共100W条数据。

结果如下图:

46d5581c-d14a-11ed-bfe3-dac502259ad0.png

成功插入10W条数据耗时:3832
成功插入10W条数据耗时:1770
成功插入10W条数据耗时:2628
成功插入10W条数据耗时:2140
成功插入10W条数据耗时:2148
成功插入10W条数据耗时:1757
成功插入10W条数据耗时:1767
成功插入10W条数据耗时:1832
成功插入10W条数据耗时:1830
成功插入10W条数据耗时:2031
插入100W数据共耗时:21737

实验结果:

使用JDBC批处理,未开启事务下,平均每 2.1 秒插入 十万 条数据

接着测试

开启事务,每次循环插入10W条数据,循环10次,一共100W条数据。

结果如下图:

470ee15e-d14a-11ed-bfe3-dac502259ad0.png

成功插入10W条数据耗时:3482
成功插入10W条数据耗时:1776
成功插入10W条数据耗时:1979
成功插入10W条数据耗时:1730
成功插入10W条数据耗时:1643
成功插入10W条数据耗时:1665
成功插入10W条数据耗时:1622
成功插入10W条数据耗时:1624
成功插入10W条数据耗时:1779
成功插入10W条数据耗时:1698
插入100W数据共耗时:19003

实验结果:

使用JDBC批处理,开启事务,平均每 1.9 秒插入 十万 条数据

3 总结

能够看到,在开启事务下 JDBC直接处理 和 JDBC批处理 均耗时更短。

Mybatis 轻量级框架插入 , mybatis在我这次实验被黑的可惨了,哈哈。实际开启事务以后,差距不会这么大(差距10倍)。大家有兴趣的可以接着去测试

JDBC直接处理,在本次实验,开启事务和关闭事务,耗时差距5倍左右,并且这个倍数会随着数据量的增大而增大。因为在未开启事务时,更新10000条数据,就得访问数据库10000次。导致每次操作都需要操作一次数据库。

JDBC批处理,在本次实验,开启事务与关闭事务,耗时差距很微小(后面会增加测试,加大这个数值的差距)。但是能够看到开启事务以后,速度还是有提升。

结论:设计到大量单条数据的插入,使用JDBC批处理和事务混合速度最快

实测使用批处理+事务混合插入1亿条数据耗时:174756毫秒

4 补充

JDBC批处理事务,开启和关闭事务,测评插入20次,一次50W数据,一共一千万数据耗时:

1、开启事务(数据太长不全贴了)

插入1000W数据共耗时:197654

2、关闭事务(数据太长不全贴了)

插入1000W数据共耗时:200540

还是没很大的差距~

借用:

472d2308-d14a-11ed-bfe3-dac502259ad0.png

分别是:

不用批处理,不用事务;

只用批处理,不用事务;

只用事务,不用批处理;

既用事务,也用批处理;(很明显,这个最快,所以建议在处理大批量的数据时,同时使用批处理和事务)






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • JAVA
    +关注

    关注

    19

    文章

    2904

    浏览量

    103003
  • SQL
    SQL
    +关注

    关注

    1

    文章

    738

    浏览量

    43466
  • JDBC
    +关注

    关注

    0

    文章

    25

    浏览量

    13299
  • MYSQL数据库
    +关注

    关注

    0

    文章

    95

    浏览量

    9277

原文标题:1亿条数据批量插入 MySQL,哪种方式最快?

文章出处:【微信号:AndroidPush,微信公众号:Android编程精选】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    利用JAVAMysql插入一亿数量级数据—效率测评

    所以通过随机生成人的姓名、年龄、性别、电话、email、地址 ,向mysql数据库大量插入数据,便于用大量的数据测试 SQL 语句优化效率。
    的头像 发表于 05-24 11:13 3137次阅读

    0基础学Mysql:mysql入门视频教程!

    互联网行业的高速发展,各个中小企业的数据库存放的数据,也已经达到了一个相当高的数量级。学习目标:深入理解MySQL数据库的原理从硬件 系统
    发表于 07-08 10:51

    labview的采样率上限数量级是10^6吗?

    这意味着labview的采样率上限数量级是10^6吗?
    发表于 09-28 13:05

    使用Matlab捕获N9010A跟踪数据缩放了几个数量级

    与显示类似,并且缩放了几个数量级。我必须有数据转换问题,但我无法弄清楚我做错了什么。使用下面的相关代码以32位整数格式捕获数据:+%通过GPIB连接到N9010A信号分析器+ + obj = gpib
    发表于 11-05 10:42

    请问AD9361跳频稳定时间是一个什么数量级

    我看AD9361的UG上面有关于RF DC OFFSET的矫正时间计算公式,但是还是不太清楚。请问当跳频范围超过100M时,RF DC offset 跟跳频范围相关的时间在一个什么数量级呢,AD9361在GHz跳频的时候总共需要的矫正时间是一个什么数量级呢,谢谢
    发表于 02-15 14:39

    开关电源的NTC阻值一般是什么数量级的?

    ACDC开关电源的整流桥后串接的NTC,应是防止冷启时的浪涌电流的吧。1、用在此处的NTC的阻值一般是何种数量级的?2、看一国外客户使用的是EPCOS的用于测温用途的NTC(25摄氏度阻值为1K,B
    发表于 10-09 07:35

    labview插入数据MySQL数据

    最近在用labview写入数据MySQL数据库,遇到一个问题:(如图片所示)利用insert指令插入
    发表于 12-26 16:52

    如何实现处理器的速度跟外围硬件设备的速度在一个数量级上呢

    0 前言众所周知,处理器的速度跟外围硬件设备的速度往往不在一个数量级上,因此,如果内核采取让处理器硬件发出一个请求,然后专门等待回应的办法,显然降低内核效率。既然硬件的响应这么慢,那么内核就应该
    发表于 02-11 07:03

    深度剖析OpenHarmony轻量级数据存储

    一、轻量级数据存储的版本openharmony的轻量级数据存储现有两个版本,但是harmonyOS的官网上只有一个轻量级数据存储。二、应用目录的获取数据存储需要获取到应用的存放目录,便
    发表于 03-31 14:45

    中国电子系统2天时间建设苏州市疫情管控平台 可同时支持10万数量级企业及1000万数量级员工的活动轨迹分析

    飞腾公司发布信息称,他们研发的16nm 64核FT -2000+/64处理器已经用于苏州疫情管控平台,只用2天时间就搭建出一套能够满足10万+企业、1000万数量级员工的平台。
    的头像 发表于 03-03 15:12 3581次阅读

    MySQL数据库:如何操作禁止重复插入数据

    MySQL进行数据插入操作时,总是会考虑是否会插入重复数据,之前的操作都是先根据主键或者唯一约束条件进行查询,有就进行更新没有就进行
    的头像 发表于 10-08 14:15 3006次阅读
    <b class='flag-5'>MySQL</b><b class='flag-5'>数据</b>库:如何操作禁止重复<b class='flag-5'>插入</b><b class='flag-5'>数据</b>

    TinyDB轻量级数据库有哪些特点呢

    TinyDB 是一个纯 Python 编写的轻量级数据库,一共只有1800行代码,没有外部依赖项。
    的头像 发表于 10-28 14:07 1045次阅读

    一个纯Python编写的轻量级数据

    TinyDB 是一个纯 Python 编写的轻量级数据库,一共只有1800行代码,没有外部依赖项。
    的头像 发表于 02-24 10:32 541次阅读

    量级数据库有哪些

    量级数据库有哪些 随着互联网和物联网等新一代信息技术的广泛应用,数据库系统也变得越来越重要。人们对于数据数据库的可靠性、安全性和性能等要求也越来越高。与传统的关系型
    的头像 发表于 08-28 16:41 4329次阅读

    量级数据库有哪些类型

    量级数据库是指具有小巧、灵活、高效的特点,适用于小规模项目和嵌入式设备的数据库管理系统。下面是对轻量级数据库类型的详细介绍,包括关系型数据库、非关系型
    的头像 发表于 12-20 11:29 607次阅读