MongoDB中在100万级大数据量插入的代码分享和测试分析

发布时间:2022-06-27 发布网站:脚本宝典
脚本宝典收集整理的这篇文章主要介绍了MongoDB中在100万级大数据量插入的代码分享和测试分析脚本宝典觉得挺不错的,现在分享给大家,也给大家做个参考。

在100万级大数据量插入,MongoDB中速度还相当快的。

下面分享Java操作代码和测试结果

Java代码:

    @Test
    void saveBatch() {
        long start=System.currentTimeMillis();
        int oneNum=3000;
        List<User> insertDataList=new ArrayList(oneNum);
        for(int i=0;i<1000000;i++){
            User user=new User();
            user.setName("B"+i);
            user.setPassword("B"+i);
            insertDataList.add(user);
            if(insertDataList.size()>=oneNum){
                BulkOperations operations = mongoTemplate.bulkOps(BulkOperations.BulkMode.UNORDERED,"dept3");
                operations.insert(insertDataList);
                operations.execute();
                insertDataList=new ArrayList(oneNum);
            }
        }
        if(!insertDataList.isEmpty()){
            BulkOperations operations = mongoTemplate.bulkOps(BulkOperations.BulkMode.UNORDERED,"dept3");
            operations.insert(insertDataList);
            operations.execute();
        }
        System.out.println("100万用户用时:"+(System.currentTimeMillis()-start)+"毫秒");
    }

压测结果:

一次插入1条 100万用户用时:127229毫秒 一次插入3000条 100万用户用时:7412毫秒 一次插入5000条 100万用户用时:7490毫秒 一次插入10000条 100万用户用时:7386毫秒

脚本宝典总结

以上是脚本宝典为你收集整理的MongoDB中在100万级大数据量插入的代码分享和测试分析全部内容,希望文章能够帮你解决MongoDB中在100万级大数据量插入的代码分享和测试分析所遇到的问题。

如果觉得脚本宝典网站内容还不错,欢迎将脚本宝典推荐好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。
标签: