0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

SpringBoot超大文件上传,实现秒传

jf_ro2CN3Fa 来源:芋道源码 作者:芋道源码 2022-11-17 10:30 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

来源:已赋值
  • 前言
  • 详细教程
    • 秒传
    • 分片上传
    • 断点续传
    • 后端进行写入操作的核心代码
  • 总结

前言

文件上传是一个老生常谈的话题了,在文件相对比较小的情况下,可以直接把文件转化为字节流上传到服务器,但在文件比较大的情况下,用普通的方式进行上传,这可不是一个好的办法,毕竟很少有人会忍受,当文件上传到一半中断后,继续上传却只能重头开始上传,这种让人不爽的体验。那有没有比较好的上传体验呢,答案有的,就是下边要介绍的几种上传方式

基于 Spring Boot + MyBatis Plus + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

  • 项目地址:https://gitee.com/zhijiantianya/ruoyi-vue-pro
  • 视频教程:https://doc.iocoder.cn/video/

详细教程

秒传

1、什么是秒传

通俗的说,你把要上传的东西上传,服务器会先做MD5校验,如果服务器上有一样的东西,它就直接给你个新地址,其实你下载的都是服务器上的同一个文件,想要不秒传,其实只要让MD5改变,就是对文件本身做一下修改(改名字不行),例如一个文本文件,你多加几个字,MD5就变了,就不会秒传了.

2、本文实现的秒传核心逻辑

a、利用redis的set方法存放文件上传状态,其中key为文件上传的md5,value为是否上传完成的标志位,

b、当标志位true为上传已经完成,此时如果有相同文件上传,则进入秒传逻辑。如果标志位为false,则说明还没上传完成,此时需要在调用set的方法,保存块号文件记录的路径,其中key为上传文件md5加一个固定前缀,value为块号文件记录路径

分片上传

1.什么是分片上传

分片上传,就是将所要上传的文件,按照一定的大小,将整个文件分隔成多个数据块(我们称之为Part)来进行分别上传,上传完之后再由服务端对所有上传的文件进行汇总整合成原始的文件。

2.分片上传的场景

1.大文件上传

2.网络环境环境不好,存在需要重传风险的场景

断点续传

1、什么是断点续传

断点续传是在下载或上传时,将下载或上传任务(一个文件或一个压缩包)人为的划分为几个部分,每一个部分采用一个线程进行上传或下载,如果碰到网络故障,可以从已经上传或下载的部分开始继续上传或者下载未完成的部分,而没有必要从头开始上传或者下载。本文的断点续传主要是针对断点上传场景。

2、应用场景

断点续传可以看成是分片上传的一个衍生,因此可以使用分片上传的场景,都可以使用断点续传。

3、实现断点续传的核心逻辑

在分片上传的过程中,如果因为系统崩溃或者网络中断等异常因素导致上传中断,这时候客户端需要记录上传的进度。在之后支持再次上传时,可以继续从上次上传中断的地方进行继续上传。

为了避免客户端在上传之后的进度数据被删除而导致重新开始从头上传的问题,服务端也可以提供相应的接口便于客户端对已经上传的分片数据进行查询,从而使客户端知道已经上传的分片数据,从而从下一个分片数据开始继续上传。

4、实现流程步骤

a、方案一,常规步骤

  • 将需要上传的文件按照一定的分割规则,分割成相同大小的数据块;
  • 初始化一个分片上传任务,返回本次分片上传唯一标识;
  • 按照一定的策略(串行或并行)发送各个分片数据块;
  • 发送完成后,服务端根据判断数据上传是否完整,如果完整,则进行数据块合成得到原始文件。

b、方案二、本文实现的步骤

  • 前端(客户端)需要根据固定大小对文件进行分片,请求后端(服务端)时要带上分片序号和大小
  • 服务端创建conf文件用来记录分块位置,conf文件长度为总分片数,每上传一个分块即向conf文件中写入一个127,那么没上传的位置就是默认的0,已上传的就是Byte.MAX_VALUE 127(这步是实现断点续传和秒传的核心步骤)
  • 服务器按照请求数据中给的分片序号和每片分块大小(分片大小是固定且一样的)算出开始位置,与读取到的文件片段数据,写入文件。
5、分片上传/断点上传代码实现

a、前端采用百度提供的webuploader的插件,进行分片。因本文主要介绍服务端代码实现,webuploader如何进行分片,具体实现可以查看如下链接:

http://fex.baidu.com/webuploader/getting-started.html

b、后端用两种方式实现文件写入,一种是用RandomAccessFile,如果对RandomAccessFile不熟悉的朋友,可以查看如下链接:

https://blog.csdn.net/dimudan2015/article/details/81910690

另一种是使用MappedByteBuffer,对MappedByteBuffer不熟悉的朋友,可以查看如下链接进行了解:

https://www.jianshu.com/p/f90866dcbffc

后端进行写入操作的核心代码

a、RandomAccessFile实现方式

@UploadMode(mode=UploadModeEnum.RANDOM_ACCESS)
@Slf4j
publicclassRandomAccessUploadStrategyextendsSliceUploadTemplate{

@Autowired
privateFilePathUtilfilePathUtil;

@Value("${upload.chunkSize}")
privatelongdefaultChunkSize;

@Override
publicbooleanupload(FileUploadRequestDTOparam){
RandomAccessFileaccessTmpFile=null;
try{
StringuploadDirPath=filePathUtil.getPath(param);
FiletmpFile=super.createTmpFile(param);
accessTmpFile=newRandomAccessFile(tmpFile,"rw");
//这个必须与前端设定的值一致
longchunkSize=Objects.isNull(param.getChunkSize())?defaultChunkSize*1024*1024
:param.getChunkSize();
longoffset=chunkSize*param.getChunk();
//定位到该分片的偏移量
accessTmpFile.seek(offset);
//写入该分片数据
accessTmpFile.write(param.getFile().getBytes());
booleanisOk=super.checkAndSetUploadProgress(param,uploadDirPath);
returnisOk;
}catch(IOExceptione){
log.error(e.getMessage(),e);
}finally{
FileUtil.close(accessTmpFile);
}
returnfalse;
}

}

b、MappedByteBuffer实现方式

@UploadMode(mode=UploadModeEnum.MAPPED_BYTEBUFFER)
@Slf4j
publicclassMappedByteBufferUploadStrategyextendsSliceUploadTemplate{

@Autowired
privateFilePathUtilfilePathUtil;

@Value("${upload.chunkSize}")
privatelongdefaultChunkSize;

@Override
publicbooleanupload(FileUploadRequestDTOparam){

RandomAccessFiletempRaf=null;
FileChannelfileChannel=null;
MappedByteBuffermappedByteBuffer=null;
try{
StringuploadDirPath=filePathUtil.getPath(param);
FiletmpFile=super.createTmpFile(param);
tempRaf=newRandomAccessFile(tmpFile,"rw");
fileChannel=tempRaf.getChannel();

longchunkSize=Objects.isNull(param.getChunkSize())?defaultChunkSize*1024*1024
:param.getChunkSize();
//写入该分片数据
longoffset=chunkSize*param.getChunk();
byte[]fileData=param.getFile().getBytes();
mappedByteBuffer=fileChannel
.map(FileChannel.MapMode.READ_WRITE,offset,fileData.length);
mappedByteBuffer.put(fileData);
booleanisOk=super.checkAndSetUploadProgress(param,uploadDirPath);
returnisOk;

}catch(IOExceptione){
log.error(e.getMessage(),e);
}finally{

FileUtil.freedMappedByteBuffer(mappedByteBuffer);
FileUtil.close(fileChannel);
FileUtil.close(tempRaf);

}

returnfalse;
}

}

c、文件操作核心模板类代码

@Slf4j
publicabstractclassSliceUploadTemplateimplementsSliceUploadStrategy{

publicabstractbooleanupload(FileUploadRequestDTOparam);

protectedFilecreateTmpFile(FileUploadRequestDTOparam){

FilePathUtilfilePathUtil=SpringContextHolder.getBean(FilePathUtil.class);
param.setPath(FileUtil.withoutHeadAndTailDiagonal(param.getPath()));
StringfileName=param.getFile().getOriginalFilename();
StringuploadDirPath=filePathUtil.getPath(param);
StringtempFileName=fileName+"_tmp";
FiletmpDir=newFile(uploadDirPath);
FiletmpFile=newFile(uploadDirPath,tempFileName);
if(!tmpDir.exists()){
tmpDir.mkdirs();
}
returntmpFile;
}

@Override
publicFileUploadDTOsliceUpload(FileUploadRequestDTOparam){

booleanisOk=this.upload(param);
if(isOk){
FiletmpFile=this.createTmpFile(param);
FileUploadDTOfileUploadDTO=this.saveAndFileUploadDTO(param.getFile().getOriginalFilename(),tmpFile);
returnfileUploadDTO;
}
Stringmd5=FileMD5Util.getFileMD5(param.getFile());

Mapmap=newHashMap<>();
map.put(param.getChunk(),md5);
returnFileUploadDTO.builder().chunkMd5Info(map).build();
}

/**
*检查并修改文件上传进度
*/
publicbooleancheckAndSetUploadProgress(FileUploadRequestDTOparam,StringuploadDirPath){

StringfileName=param.getFile().getOriginalFilename();
FileconfFile=newFile(uploadDirPath,fileName+".conf");
byteisComplete=0;
RandomAccessFileaccessConfFile=null;
try{
accessConfFile=newRandomAccessFile(confFile,"rw");
//把该分段标记为true表示完成
System.out.println("setpart"+param.getChunk()+"complete");
//创建conf文件文件长度为总分片数,每上传一个分块即向conf文件中写入一个127,那么没上传的位置就是默认0,已上传的就是Byte.MAX_VALUE127
accessConfFile.setLength(param.getChunks());
accessConfFile.seek(param.getChunk());
accessConfFile.write(Byte.MAX_VALUE);

//completeList检查是否全部完成,如果数组里是否全部都是127(全部分片都成功上传)
byte[]completeList=FileUtils.readFileToByteArray(confFile);
isComplete=Byte.MAX_VALUE;
for(inti=0;i< completeList.length && isComplete == Byte.MAX_VALUE; i++) {  
        //与运算,如果有部分没有完成则isComplete不是Byte.MAX_VALUE
isComplete=(byte)(isComplete&completeList[i]);
System.out.println("checkpart"+i+"complete?:"+completeList[i]);
}

}catch(IOExceptione){
log.error(e.getMessage(),e);
}finally{
FileUtil.close(accessConfFile);
}
booleanisOk=setUploadProgress2Redis(param,uploadDirPath,fileName,confFile,isComplete);
returnisOk;
}

/**
*把上传进度信息存进redis
*/
privatebooleansetUploadProgress2Redis(FileUploadRequestDTOparam,StringuploadDirPath,
StringfileName,FileconfFile,byteisComplete){

RedisUtilredisUtil=SpringContextHolder.getBean(RedisUtil.class);
if(isComplete==Byte.MAX_VALUE){
redisUtil.hset(FileConstant.FILE_UPLOAD_STATUS,param.getMd5(),"true");
redisUtil.del(FileConstant.FILE_MD5_KEY+param.getMd5());
confFile.delete();
returntrue;
}else{
if(!redisUtil.hHasKey(FileConstant.FILE_UPLOAD_STATUS,param.getMd5())){
redisUtil.hset(FileConstant.FILE_UPLOAD_STATUS,param.getMd5(),"false");
redisUtil.set(FileConstant.FILE_MD5_KEY+param.getMd5(),
uploadDirPath+FileConstant.FILE_SEPARATORCHAR+fileName+".conf");
}

returnfalse;
}
}
/**
*保存文件操作
*/
publicFileUploadDTOsaveAndFileUploadDTO(StringfileName,FiletmpFile){

FileUploadDTOfileUploadDTO=null;

try{

fileUploadDTO=renameFile(tmpFile,fileName);
if(fileUploadDTO.isUploadComplete()){
System.out
.println("uploadcomplete!!"+fileUploadDTO.isUploadComplete()+"name="+fileName);
//TODO保存文件信息到数据库

}

}catch(Exceptione){
log.error(e.getMessage(),e);
}finally{

}
returnfileUploadDTO;
}
/**
*文件重命名
*
*@paramtoBeRenamed将要修改名字的文件
*@paramtoFileNewName新的名字
*/
privateFileUploadDTOrenameFile(FiletoBeRenamed,StringtoFileNewName){
//检查要重命名的文件是否存在,是否是文件
FileUploadDTOfileUploadDTO=newFileUploadDTO();
if(!toBeRenamed.exists()||toBeRenamed.isDirectory()){
log.info("Filedoesnotexist:{}",toBeRenamed.getName());
fileUploadDTO.setUploadComplete(false);
returnfileUploadDTO;
}
Stringext=FileUtil.getExtension(toFileNewName);
Stringp=toBeRenamed.getParent();
StringfilePath=p+FileConstant.FILE_SEPARATORCHAR+toFileNewName;
FilenewFile=newFile(filePath);
//修改文件名
booleanuploadFlag=toBeRenamed.renameTo(newFile);

fileUploadDTO.setMtime(DateUtil.getCurrentTimeStamp());
fileUploadDTO.setUploadComplete(uploadFlag);
fileUploadDTO.setPath(filePath);
fileUploadDTO.setSize(newFile.length());
fileUploadDTO.setFileExt(ext);
fileUploadDTO.setFileId(toFileNewName);

returnfileUploadDTO;
}
}

基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

  • 项目地址:https://gitee.com/zhijiantianya/yudao-cloud
  • 视频教程:https://doc.iocoder.cn/video/

总结

在实现分片上传的过程,需要前端和后端配合,比如前后端的上传块号的文件大小,前后端必须得要一致,否则上传就会有问题。其次文件相关操作正常都是要搭建一个文件服务器的,比如使用fastdfs、hdfs等。

本示例代码在电脑配置为4核内存8G情况下,上传24G大小的文件,上传时间需要30多分钟,主要时间耗费在前端的md5值计算,后端写入的速度还是比较快。如果项目组觉得自建文件服务器太花费时间,且项目的需求仅仅只是上传下载,那么推荐使用阿里的oss服务器,其介绍可以查看官网:

https://help.aliyun.com/product/31815.html

阿里的oss它本质是一个对象存储服务器,而非文件服务器,因此如果有涉及到大量删除或者修改文件的需求,oss可能就不是一个好的选择。

文末提供一个oss表单上传的链接demo,通过oss表单上传,可以直接从前端把文件上传到oss服务器,把上传的压力都推给oss服务器:

https://www.cnblogs.com/ossteam/p/4942227.html



审核编辑 :李倩


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    13

    文章

    10093

    浏览量

    90886
  • spring
    +关注

    关注

    0

    文章

    341

    浏览量

    15776
  • Boot
    +关注

    关注

    0

    文章

    154

    浏览量

    37495
  • SpringBoot
    +关注

    关注

    0

    文章

    177

    浏览量

    630

原文标题:SpringBoot超大文件上传,实现秒传

文章出处:【微信号:芋道源码,微信公众号:芋道源码】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    如何使用SpringBoot、Vue2.0、MySQL开发一套云诊所系统?

    (RESTful)等。 对于云诊所系统,SpringBoot可以用于实现患者管理、预约挂号、电子病历、药品管理、收费管理等核心功能。 前端:V
    的头像 发表于 11-27 16:02 131次阅读
    如何使用<b class='flag-5'>SpringBoot</b>、Vue2.0、MySQL开发一套云诊所系统?

    数据采集慢半拍?实时采集系统,决策不滞后

    在数据驱动的时代,“慢半拍” 可能意味着错失一个订单、增加一笔损失、埋下一个隐患。实时采集系统用 “” 能力打通数据流通的 “最后一公里”,让每一个数据都能及时转化为决策依据,让企业在激烈竞争中抢占先机。
    的头像 发表于 11-12 09:56 158次阅读
    数据采集慢半拍?实时采集系统<b class='flag-5'>秒</b><b class='flag-5'>传</b>,决策不滞后

    电能质量在线监测装置的暂态数据补是如何实现的?

    电能质量在线监测装置的暂态数据补通过 本地缓存存储、触发条件识别、协议级断点续传、数据完整性校验 等多重机制协同实现,确保通信中断期间的高频暂态波形(如短路、雷击等事件数据)在网络恢复后完整、准确
    的头像 发表于 11-09 16:43 1035次阅读

    商品图片批量上传接口设计与实现

    ? 在电商平台或内容管理系统中,商品图片的高效管理是核心需求之一。批量上传接口允许用户一次性上传多张图片,显著提升操作效率。本文将逐步介绍如何设计并实现一个可靠的商品图片批量上传接口,
    的头像 发表于 10-13 15:25 214次阅读

    大文件高效传输不求人!Ymodem协议实战示例与核心技巧揭秘

    无需复杂网络环境,Ymodem协议即可实现可靠的大文件传输!通过其简洁的通信机制(如SOH帧头、数据分块、ACK/NACK反馈),无论是单片机通信还是跨平台传输,本文示例将演示如何快速部署,并
    的头像 发表于 07-28 17:38 738次阅读
    <b class='flag-5'>大文件</b>高效传输不求人!Ymodem协议实战示例与核心技巧揭秘

    产品图片上传API接口

    ​ 在电商平台、内容管理系统或移动应用中,产品图片上传API接口是核心功能之一。它允许用户或第三方应用通过HTTP请求将图片文件上传到服务器,实现产品图像的快速添加和管理。本文将逐步介
    的头像 发表于 07-25 14:30 480次阅读
    产品图片<b class='flag-5'>上传</b>API接口

    主流版本控制工具Git vs Perforce P4:架构模式、性能、大文件管理及分支管理对比详解

    Git vs Perforce P4,如何选型?架构模式、性能、大文件管理、分支策略四大维度对比,帮你全面了解两者的核心差异,选择更合适你团队需求的版本控制系统。
    的头像 发表于 06-13 14:52 580次阅读
    主流版本控制工具Git vs Perforce P4:架构模式、性能、<b class='flag-5'>大文件</b>管理及分支管理对比详解

    HarmonyOS优化应用文件上传下载慢问题性能优化三

    (一)文件上传 对于大文件断点续传上传,本文采用request(上传下载)模块中的request.agent任务托管接口,可以自动
    发表于 05-28 15:06

    HarmonyOS优化应用文件上传下载慢问题性能优化二

    ):用于实现文件MD5的计算,将计算的MD5值预先传到服务器端进行预处理,实现文件,同时确保
    发表于 05-27 16:19

    HarmonyOS优化应用文件上传下载慢问题性能优化一

    )主要功能 目前系统内提供给文件上传下载可用的模块有http模块和request模块。http模块提供基础的HTTP数据请求能力,功能较为基础,本文不做介绍。request模块主要给应用提供上传下载文件
    发表于 05-26 15:50

    鸿蒙开发实现图片上传上传用户头像)

    (FilePicker),实现该能力。通过Picker访问相关文件,将拉起对应的应用,引导用户完成界面操作,接口本身无需申请权限。 import picker from \'@ohos.file.picker
    发表于 05-24 23:09

    HarmonyOS优化应用文件上传下载慢问题性能优化二

    ):用于实现文件MD5的计算,将计算的MD5值预先传到服务器端进行预处理,实现文件,同时确保
    发表于 05-22 10:54

    用树莓派打造私人云盘,从零开始到文件上传

    简单。使用外部硬盘定制你的NextCloudPi服务器,配置端口转发以实现外部访问,并轻松上传文件。在当今这个时代,从Dropbox到GoogleDrive和On
    的头像 发表于 03-25 09:29 969次阅读
    用树莓派打造私人云盘,从零开始到<b class='flag-5'>文件</b><b class='flag-5'>上传</b>!

    鸿蒙文件传输三方库上线开源鸿蒙社区 十行代码实现大文件高速传输

    、断点续下、分片上传、断点续传、自动重试等多个特性的高性能文件传输解决方案,让开发者开箱即用,轻松实现高效稳定的文件传输功能。 在应用开发过程中,许多场景涉及到
    发表于 03-06 10:29

    FTP文件传输协议的工作模式

    FTP(File Transfer Protocol)文件传输协议,基于C/S架构,支持文件上传和下载功能。
    的头像 发表于 02-06 10:09 1258次阅读