大文件上传如何做断点续传?全端+后端结合开发

简介: 大文件上传如何做断点续传?全端+后端结合开发

断点续存是什么?

断点续传(Resumable File Upload)是一种文件上传的技术,它允许在上传过程中出现中断或失败的情况下,能够从中断的位置继续上传,而不需要重新上传整个文件。这在处理大文件或不稳定的网络连接时非常有用。

断点续传的实现通常涉及以下几个关键概念和步骤:

  1. 分片:将大文件分割成较小的文件块(通常是固定大小的块),每个块都有一个唯一的标识符。
  2. 上传请求:客户端发起上传请求,并将文件分片按顺序上传到服务器。
  3. 上传状态记录:服务器端需要记录上传的状态,包括已接收的分片、分片的顺序和完整文件的大小等信息。
  4. 中断处理:如果上传过程中发生中断(例如网络中断、用户主动中止等),客户端可以记录已上传的分片信息,以便在恢复上传时使用。
  5. 恢复上传:当上传中断后再次开始上传时,客户端可以发送恢复上传请求,并将已上传的分片信息发送给服务器。
  6. 服务器处理:服务器接收到恢复上传请求后,根据已上传的分片信息,判断哪些分片已经上传,然后继续接收剩余的分片。
  7. 合并文件:当所有分片都上传完成后,服务器将所有分片按顺序组合成完整的文件。

下面是一个简化的断点续传流程图:

客户端                                服务器
  |                                      |
  |------ 发起上传请求 ------------------>|
  |                                      |
  |------ 上传分片1 -------------------->|
  |                                      |
  |------ 上传分片2 -------------------->|
  |                                      |
  |                ...                   |
  |                                      |
  |------ 上传分片N -------------------->|
  |                                      |
  |------ 中断或失败 -------------------->|
  |                                      |
  |------ 发起恢复上传请求 --------------->|
  |                                      |
  |------ 发送已上传分片信息 ------------>|
  |                                      |
  |                ...                   |
  |                                      |
  |------ 上传剩余分片 ------------------>|
  |                                      |
  |------ 上传完成 ---------------------->|
  |                                      |
  |------ 合并分片为完整文件 ------------>|
  |                                      |
  |<----- 上传成功响应 --------------------|
  |                                      |

上述流程图描述了客户端和服务器之间的交互过程。客户端发起上传请求,并逐个上传分片,如果中断或失败,客户端可以恢复上传并将已上传的分片信息发送给服务器。服务器根据已上传的分片信息,继续接收剩余的分片。当所有分片上传完成后,服务器将它们合并成完整的文件,并向客户端发送上传成功的响应。

断点续传技术可以提高文件上传的可靠性和效率,特别是在处理大文件或不稳定的网络环境时。它可以减少重新上传的数据量,节省带宽和时间,并提供更好的用户体验

断点续传实现

1.前端对文件进行分块

2.前端使用多线程上传分片,上传前给服务器发送消息验证当前分片是否已经上传。

3.所有分片上传完毕后,发送合并分片请求,校验文件的完整性。 (上传的分片应该具备顺序标记)

4.前端给服务器传一个MD5值,服务器合并文件后,利用MD5值计算是否与源文件一致。如果不一致,说明文件需要重新上传。

分片文件清理问题:

   在数据库中有一张文件表记录minIo中存储的文件信息

   文件开始上传时会写入文件表,状态为上传中,上传完成会更新状态为上传完成

   当一个文件传了一半不再上传了,说明该文件没有上传完成,通过定时任务去查询文件表中的记录,如果文件距离上次上传结束超过24小时,则可以考虑清除MinIo中相关的分片数据

原理能是一大堆,代码如何去实现呢?

在这我使用的是前段vue3 + 后端的是基于tp5开发的fastadmin框架

前端部分:

<template>
  <div>
    <input type="file" @change="selectFile" />
    <button @click="upload">上传</button>
    <progress :value="progress" :max="100"></progress>
  </div>
</template>

script部分:

<template>
  <div>
    <input type="file" @change="selectFile" />
    <!-- <button @click="upload" :disabled="disabled">上传</button> -->
    <progress :value="progress" :max="100"></progress>
    <button @click="toggleUpload">{{ isUploading ? '停止上传' : '开始上传' }}</button>
  </div>
</template>
<script setup>
import axios from 'axios';
import qs from 'qs';
import { ref, watch ,onMounted } from 'vue';
import { MD5, enc } from 'crypto-js';
const disabled = ref(false);
const serializedData = qs.stringify();
const tableData = ref([]);
axios.post('/api/uploadss/index', serializedData)
  .then(response => {
    console.log(response.data);
    tableData.value = response.data;
  })
  .catch(error => {
    console.error(error);
  });
const encodeMD5 = (md5Hash) => {
  const part1 = md5Hash.substr(0, 6);
  const part2 = md5Hash.substr(6, 6);
  const part3 = md5Hash.substr(12, 6);
  const part4 = md5Hash.substr(18, 6);
  const part5 = md5Hash.substr(24, 8);
  return `${part1}-${part2}-${part3}-${part4}-${part5}`;
};
const file = ref(null);
const progress = ref(0);
const isUploading = ref(false);
let filename;
const selectFile = (event) => {
  file.value = event.target.files[0];
  filename = `.${file.value.name.split('.')[1]}`;
};
let chunkSize;
let totalChunks;
let currentChunk;
let chunkIdValue;
const uploadChunk = (start, end) => {
  const formData = new FormData();
  const reader = new FileReader();
  reader.onload = () => {
    const imageData = reader.result;
    if (currentChunk == 0) {
      chunkIdValue = MD5(imageData);
    }
    formData.append('file', new File([file.value.slice(start, end)], filename));
    formData.append('action', currentChunk === totalChunks ? 'merge' : 'clean');
    formData.append('chunkindex', currentChunk);
    formData.append('chunkid', encodeMD5(chunkIdValue.toString(enc.Hex)));
    formData.append('chunkcount', totalChunks);
    formData.append('filename', filename);
    axios.post('/api/uploadss/upload', formData, {
      headers: {
        'Content-Type': 'multipart/form-data',
      },
      onUploadProgress: (progressEvent) => {
        const progressValue = Math.round((progressEvent.loaded / progressEvent.total) * 100);
        progress.value = progressValue;
      },
    })
      .then((res) => {
        currentChunk++;
        if (currentChunk <= totalChunks && isUploading.value) {
          const start = currentChunk * chunkSize;
          const end = Math.min(start + chunkSize, file.value.size);
          uploadChunk(start, end);
        } else {
          console.log(res);
          console.log('上传完成');
        }
      })
      .catch((error) => {
        console.error('上传失败:', error);
      });
  };
  reader.readAsDataURL(file.value.slice(start, end));
};
const upload = () => {
  if (!file.value) {
    return;
  }
  console.log(1111);
  chunkSize = 2 * 1024 * 1024; // 设置分片大小为8MB
  totalChunks = Math.ceil(file.value.size / chunkSize);
  currentChunk = 0;
  chunkIdValue;
  const start = 0;
  const end = Math.min(chunkSize, file.value.size);
  uploadChunk(start, end);
  return uploadChunk;
};
const toggleUpload = () => {
  isUploading.value = !isUploading.value;
  if (isUploading.value) {
    // 继续上传时,从存储中读取记录并恢复上传状态
    const uploadRecord = localStorage.getItem('uploadRecord');
    if (uploadRecord) {
      const { currentChunk, progressValue } = JSON.parse(uploadRecord);
      progress.value = progressValue;
      uploadChunk(currentChunk * chunkSize, file.value.size);
    }
  } else {
    // 停止上传时,保存当前的分片索引和进度值到本地存储中
    const uploadRecord = JSON.stringify({
      currentChunk: currentChunk - 1,
      progressValue: progress.value,
    });
    localStorage.setItem('uploadRecord', uploadRecord);
  }
};
watch(isUploading, (value) => {
  if (!value) {
    // 中断上传并保存记录
    console.log('停止上传');
    const uploadRecord = JSON.stringify({
      currentChunk: currentChunk - 1,
      progressValue: progress.value,
    });
    localStorage.setItem('uploadRecord', uploadRecord);
  } else {
    // 恢复上传
    console.log('继续上传');
    upload();
  }
});
onMounted(() => {
  const handleOnline = () => {
    console.log('网络已恢复,继续上传');
    // if (file.value && progress.value !== 100) {
    isUploading.value = true;
    upload();
    // }
  };
  const handleOffline = () => {
    isUploading.value = false;
    console.log('网络中断,停止上传');
  };
  window.addEventListener('online', handleOnline);
  window.addEventListener('offline', handleOffline);
  return () => {
    window.removeEventListener('online', handleOnline);
    window.removeEventListener('offline', handleOffline);
  };
});
</script>

这些是vue3的script部分其中要注意的是参数的定义,在这里我使用的实例formeData进行传值向后端的接口发起请求,我们这里有调用了一个reader.onload的一个函数用来进行这个异步加载来访问接口.其中他的action的值他其他的值不同与其他的值不同(本来是可用不同的值,fastadmin框架需要这种类型的值)因为上面有一个前段的Md5的36为字符的加密想要使用需要在你的终端上输入

npm install crypto-js //下载md5算法的依赖

这里我们前段的值就传递了大不多了,其中有formData.append('filename', filename);这个值一开始是需要后端返回过来的,但实际上并不是,它是由前端传递他的后缀名;这些值传递完成后就是后端的操作流程到这里前端部分就完成了

后端部分(前面说过了使用的是fastadmin框架完成的后端,也就是需要去改框架代码);

这里我就编写一些需要改的连接以及调用的接口;

public function upload()
    {
        Config::set('default_return_type', 'json');
        //必须设定cdnurl为空,否则cdnurl函数计算错误
        Config::set('upload.cdnurl', '');
        $chunkid = $this->request->post("chunkid");
        if ($chunkid) {
            if (!Config::get('upload.chunking')) {
                $this->error(__('Chunk file disabled'));
            }
            $action = $this->request->post("action");
            $chunkindex = $this->request->post("chunkindex/d");
            $chunkcount = $this->request->post("chunkcount/d");
            $filename = $this->request->post("filename");
            $method = $this->request->method(true);
            if ($action == 'merge') {
                $attachment = null;
                //合并分片文件
                try {
                    $upload = new Upload();
                    $attachment = $upload->merge($chunkid, $chunkcount, $filename);
                } catch (UploadException $e) {
                    // return 111;
                    $this->error($e->getMessage());
                }
                $this->success(__('Uploaded successful'), ['url' => $attachment->url, 'fullurl' => cdnurl($attachment->url, true)]);
            } elseif ($method == 'clean') {
                //删除冗余的分片文件
                try {
                    $upload = new Upload();
                    $upload->clean($chunkid);
                } catch (UploadException $e) {
                    $this->error($e->getMessage());
                }
                $this->success();
            } else {
                //上传分片文件
                //默认普通上传文件
                $file = $this->request->file('file');
                try {
                    $upload = new Upload($file);
                    return $upload->chunk($chunkid, $chunkindex, $chunkcount);
                } catch (UploadException $e) {
                    $this->error($e->getMessage());
                }
            }
        }
        else {
            $attachment = null;
            //默认普通上传文件
            $file = $this->request->file('file');
            try {
                $upload = new Upload($file);
                $attachment = $upload->upload();
            } catch (UploadException $e) {
                $this->error($e->getMessage());
            }
            $this->success(__('Uploaded successful'), ['url' => $attachment->url, 'fullurl' => cdnurl($attachment->url, true)]);
        }
    }

这里后端的接口(不要复制了,这里的代码在application/admin/controller/Ajax.php文件),因为使用的它自带的admin的上传(修改的幅度较大)根据情况也可以使用api的上传;首先我们要去打开多图片上传(application/extra/upload.php)  修改 'chunking'  => false,改为true;根据上面所需要的值进行传值;这些我们在前段已经定义过了主要去说一下filename的值,这里有个判断是前段定义的,当action的值为不为merge访问chunk方法(地址:application/common/library)这里面都是upload等方法,包括处理分片合并,以及向public/uploads移入都可以.

以上就是简单点断点续传的示例

相关文章
|
15天前
|
API 持续交付 开发者
后端开发中的微服务架构实践与挑战
在数字化时代,后端服务的构建和管理变得日益复杂。本文将深入探讨微服务架构在后端开发中的应用,分析其在提高系统可扩展性、灵活性和可维护性方面的优势,同时讨论实施微服务时面临的挑战,如服务拆分、数据一致性和部署复杂性等。通过实际案例分析,本文旨在为开发者提供微服务架构的实用见解和解决策略。
|
8天前
|
存储 SQL API
探索后端开发:构建高效API与数据库交互
【10月更文挑战第36天】在数字化时代,后端开发是连接用户界面和数据存储的桥梁。本文深入探讨如何设计高效的API以及如何实现API与数据库之间的无缝交互,确保数据的一致性和高性能。我们将从基础概念出发,逐步深入到实战技巧,为读者提供一个清晰的后端开发路线图。
|
7天前
|
JSON 前端开发 API
后端开发中的API设计与文档编写指南####
本文探讨了后端开发中API设计的重要性,并详细阐述了如何编写高效、可维护的API接口。通过实际案例分析,文章强调了清晰的API设计对于前后端分离项目的关键作用,以及良好的文档习惯如何促进团队协作和提升开发效率。 ####
|
9天前
|
存储 SQL 数据库
深入浅出后端开发之数据库优化实战
【10月更文挑战第35天】在软件开发的世界里,数据库性能直接关系到应用的响应速度和用户体验。本文将带你了解如何通过合理的索引设计、查询优化以及恰当的数据存储策略来提升数据库性能。我们将一起探索这些技巧背后的原理,并通过实际案例感受优化带来的显著效果。
28 4
|
8天前
|
Web App开发 JavaScript 前端开发
深入浅出Node.js后端开发
【10月更文挑战第36天】本文将引导您探索Node.js的世界,通过实际案例揭示其背后的原理和实践方法。从基础的安装到高级的异步处理,我们将一起构建一个简单的后端服务,并讨论如何优化性能。无论您是新手还是有经验的开发者,这篇文章都将为您提供新的视角和深入的理解。
|
13天前
|
Web App开发 存储 JavaScript
深入浅出Node.js后端开发
【10月更文挑战第31天】本文将引导你进入Node.js的奇妙世界,探索其如何革新后端开发。通过浅显易懂的语言和实际代码示例,我们将一起学习Node.js的核心概念、搭建开发环境,以及实现一个简单但完整的Web应用。无论你是编程新手还是希望拓展技术的开发者,这篇文章都将为你打开一扇通往高效后端开发的大门。
|
9天前
|
监控 API 持续交付
后端开发中的微服务架构实践与挑战####
本文深入探讨了微服务架构在后端开发中的应用,分析了其优势、面临的挑战以及最佳实践策略。不同于传统的单体应用,微服务通过细粒度的服务划分促进了系统的可维护性、可扩展性和敏捷性。文章首先概述了微服务的核心概念及其与传统架构的区别,随后详细阐述了构建微服务时需考虑的关键技术要素,如服务发现、API网关、容器化部署及持续集成/持续部署(CI/CD)流程。此外,还讨论了微服务实施过程中常见的问题,如服务间通信复杂度增加、数据一致性保障等,并提供了相应的解决方案和优化建议。总之,本文旨在为开发者提供一份关于如何在现代后端系统中有效采用和优化微服务架构的实用指南。 ####
|
11天前
|
消息中间件 设计模式 运维
后端开发中的微服务架构实践与挑战####
本文深入探讨了微服务架构在现代后端开发中的应用,通过实际案例分析,揭示了其在提升系统灵活性、可扩展性及促进技术创新方面的显著优势。同时,文章也未回避微服务实施过程中面临的挑战,如服务间通信复杂性、数据一致性保障及部署运维难度增加等问题,并基于实践经验提出了一系列应对策略,为开发者在构建高效、稳定的微服务平台时提供有价值的参考。 ####
|
12天前
|
存储 关系型数据库 Java
探索后端开发:从基础到进阶
【10月更文挑战第33天】在这篇文章中,我们将深入探讨后端开发的各个方面,包括基本概念、关键技术和最佳实践。无论你是初学者还是有一定经验的开发者,这篇文章都将为你提供有价值的信息和启示。我们将通过代码示例来展示一些常见任务的实现方法,并分享一些实用的技巧和策略,帮助你提高后端开发的效率和质量。无论你是想学习新的编程语言还是想了解最新的后端技术趋势,这篇文章都会为你提供有益的指导和灵感。让我们一起开启后端开发的探索之旅吧!
|
12天前
|
消息中间件 监控 数据管理
后端开发中的微服务架构实践与挑战####
【10月更文挑战第29天】 在当今快速发展的软件开发领域,微服务架构已成为构建高效、可扩展和易于维护应用程序的首选方案。本文探讨了微服务架构的核心概念、实施策略以及面临的主要挑战,旨在为开发者提供一份实用的指南,帮助他们在项目中成功应用微服务架构。通过具体案例分析,我们将深入了解如何克服服务划分、数据管理、通信机制等关键问题,以实现系统的高可用性和高性能。 --- ###
36 2

热门文章

最新文章