前端合成海报并保存到本地

简介: 前端合成海报并保存到本地

近期给AI产品增加了推广返佣的能力,涉及到推广就会有分享裂变,个人的专属分享链接及海报。本次文章主要记录前端合成海报并下载到本地的流程,因为产品运行的平台主要是在小程序和PC浏览器,所以主要也是实现这两个平台的图片下载,接下来开始正文。

浏览器端实现

在实现下载之前首先要将海报内容合并成一张图片。这里用到了 html2canvas 这个库,这个相信很多人都有用到过。

html2canvas可以将网页中的HTML元素转换为Canvas图像,从而实现将网页内容截图的功能。它提供了一种简单的方法来捕捉整个网页或特定的HTML元素,并生成对应的图像数据。

以下是一个简单的示例代码,第一个参数传入需要合并图像的DOM根元素,第二个参数传入相应的参数配置,在回调中即可获取到对应的canvas对象:

html2canvas(this.$refs.poster.$el, {
    useCORS: true,
    allowTaint: true,
    scale: this.getDPR(),
}).then(canvas => {})

接下来就是将canvas对象转换成图片并下载到本地,通过canvas.toDataURL可以将canvas对象转换为base64的图片地址,再创建一个a标签模拟点击即可触发图片下载到本地。

const dataURL = canvas.toDataURL('image/jpeg', 0.8);
const link = document.createElement('a');
link.href = dataURL;
link.download = 'poster.png';
// 模拟点击链接,触发下载
link.click();

小程序端实现

小程序实现就较为麻烦一些了,html2canvas在小程序里面不支持,可以使用wxml-to-canvas 代替,但是考虑到接入的成本和当前实现的页面比较简单,目前实现是直接用原生canvas绘制海报,大概的代码如下所示,主要就是绘制图片及文本,如果涉及到比较复杂的界面对应的代码复杂度也会升高很多,大家如果有更好的方案欢迎讨论。

const ctx = wx.createCanvasContext('canvas');
ctx.beginPath();
ctx.drawImage('bg.png', 0, 0, this.canvasWidth, this.canvasHeight);
ctx.setTextAlign('center');
ctx.setFillStyle('#FFFFFF');
ctx.setFontSize(24);
ctx.fillText('海报文本', 150, uni.upx2px(90));
ctx.draw();

图片绘制好了接下来就是下载的过程。

在小程序里面下载图片需要用到 wx.canvasToTempFilePath,把当前画布指定区域的内容导出生成指定大小的图片,这里我们传入对应的cavansID即可,在成功的回调中就能获取到图片的临时文件路径 (本地路径)。

wx.canvasToTempFilePath({
  canvasId: 'poster-canvas',
  success(res) {
      const tempFilePath = res.tempFilePath
  }
})

获取到了本地地址就可以进行图片的保存,但是可能存在用户未设置权限或拒绝了存储到权限,所以下载之前需要进行权限相关的判断及提示引导操作。大概的代码如下:

// 判断用户授权
wx.getSetting({
    success(res) {
        // 没有权限,发起授权
        if (!res.authSetting['scope.writePhotosAlbum']) {
            wx.authorize({
                scope: 'scope.writePhotosAlbum',
                success() {
                    // 授权成功,可下载
                },
                fail() {
                    // 用户点击拒绝授权,跳转到设置页,引导用户授权
                    wx.openSetting({
                        success() {
                            wx.authorize({
                                scope: 'scope.writePhotosAlbum',
                                success() {
                                    // 可下载
                                },
                                fail() {
                                    this.$showToast("保存失败");
                                }
                            })
                        },
                        fail(res) {
                            this.$showToast("未获得权限保存图片");
                        }
                    })
                }
            })
        } else {
            // 用户已授权,可下载保存到相册
        }
    }

权限判断没问题即可调用wx.saveImageToPhotosAlbum传入前面从canvasToTempFilePath获取的tempFilePath进行下载:

wx.saveImageToPhotosAlbum({
  filePath,
  success() {
      // 保存成功
  },
  fail() {
      // 保存失败
  }

最后

在浏览器和小程序中保存图片的过程到此就结束了,可能在不同的设备或DOM元素会存在一定的兼容性,本次主要分享核心的实现逻辑,大家有遇到什么坑欢迎留言讨论~

看完本文如果觉得有用,记得点个赞支持,收藏起来说不定哪天就用上啦~




目录
相关文章
|
4月前
|
存储 编解码 移动开发
零基础学前端系列教程 | 和前端谈恋爱的第003天——电影海报
零基础学前端系列教程 | 和前端谈恋爱的第003天——电影海报
32 0
|
6月前
|
移动开发 前端开发 JavaScript
前端vue3——html2canvas给网站截图生成宣传海报
前端vue3——html2canvas给网站截图生成宣传海报
241 0
|
前端开发 JavaScript 计算机视觉
纯前端实现人脸识别-提取-合成
最近火爆朋友圈的军装照H5大家一定还记忆犹新,其原理是先提取出照片中的面部,理论上前端也可以完成人脸识别-提取-合成整个流程,实现纯前端的军装照H5效果。
3781 0
|
30天前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
127 2
|
30天前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
37 0
|
30天前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
30天前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
30天前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
|
30天前
|
前端开发 算法 测试技术
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
本文对比测试了通义千文、文心一言、智谱和讯飞等多个国产大模型在处理基础计数问题上的表现,特别是通过链式推理(COT)提示的效果。结果显示,GPTo1-mini、文心一言3.5和讯飞4.0Ultra在首轮测试中表现优秀,而其他模型在COT提示后也能显著提升正确率,唯有讯飞4.0-Lite表现不佳。测试强调了COT在提升模型逻辑推理能力中的重要性,并指出免费版本中智谱GLM较为可靠。
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT