Python批量压缩图片:节省存储空间的实用脚本

简介: 本文介绍如何用Python(Pillow库)编写50行内批量图片压缩脚本:支持尺寸缩放、质量调节、透明通道处理与进度反馈;兼顾隐私安全、高度定制与多线程加速,轻松将4K/RAW图压缩90%以上,适用于电商、旅行、设计等场景。(239字)

​免费编程软件「python+pycharm」
链接:https://pan.quark.cn/s/48a86be2fdc0

引言:为什么需要批量压缩图片?
手机拍摄的4K照片动辄10MB,单反相机拍摄的RAW格式图片更是高达50MB以上。当需要分享旅行照片、上传电商产品图或管理设计素材库时,庞大的图片体积会带来诸多困扰:云存储空间快速耗尽、网页加载速度变慢、邮件发送附件受限……批量压缩图片成为解决这些问题的关键手段。
代理IP在实时交通数据采集的作用.png

通过Python脚本实现自动化压缩,不仅能精准控制压缩参数,还能批量处理成百上千张图片。相比在线工具,本地脚本无需上传隐私图片,处理速度更快;相比专业软件,Python方案无需付费且可高度定制。本文将通过实际案例,展示如何用50行代码构建高效图片压缩工具。

一、核心原理:如何实现图片压缩?
图片压缩主要通过两种技术路径实现,Python的Pillow库完美支持这两种方式:

  1. 尺寸压缩:降低分辨率
    原始图片尺寸为4000×3000像素,若目标设备仅需1920×1080显示,直接缩小尺寸可减少75%像素量。Pillow的thumbnail()方法能自动保持宽高比进行缩放:

from PIL import Image
img = Image.open("photo.jpg")
img.thumbnail((1920, 1080)) # 保持比例缩放

  1. 质量压缩:优化编码
    JPEG格式通过调整质量参数(1-100)控制压缩强度。质量值越低,文件越小但可能产生噪点。实测显示,质量85时人眼难以察觉差异,但文件体积可减少60%:

img.save("compressed.jpg", quality=85, optimize=True)

  1. 智能组合策略
    最佳实践是同时应用尺寸和质量压缩。例如将4000×3000图片缩小至1920×1440后,再设置质量85,实测5.2MB原图可压缩至320KB,体积减少94%而肉眼几乎无差别。

二、基础脚本:50行代码实现批量压缩
以下脚本支持递归处理子目录,自动创建输出文件夹,并显示压缩进度:

import os
from PIL import Image
from pathlib import Path

def compress_image(input_path, output_path, max_size=1920, quality=85):
"""压缩单张图片"""
try:
with Image.open(input_path) as img:

        # 转换模式处理透明通道
        if img.mode in ("RGBA", "P"):
            img = img.convert("RGB")

        # 按比例缩放
        img.thumbnail((max_size, max_size), Image.LANCZOS)

        # 保存为JPEG格式
        output_path = output_path.with_suffix('.jpg')
        img.save(output_path, "JPEG", optimize=True, quality=quality)

        # 计算压缩率
        orig_size = os.path.getsize(input_path)
        new_size = os.path.getsize(output_path)
        ratio = (1 - new_size / orig_size) * 100
        print(f"✅ {Path(input_path).name}: {orig_size//1024}KB → {new_size//1024}KB (节省{ratio:.1f}%)")

except Exception as e:
    print(f"❌ 压缩失败 {input_path}: {e}")

def batch_compress(input_folder, output_folder, max_size=1920, quality=85):
"""批量处理文件夹"""
input_path = Path(input_folder)
output_path = Path(output_folder)
output_path.mkdir(parents=True, exist_ok=True)

# 支持的图片格式
supported_ext = ('.jpg', '.jpeg', '.png', '.bmp', '.tiff')

# 遍历所有图片文件
image_files = [
    f for f in input_path.rglob('*') 
    if f.suffix.lower() in supported_ext and f.is_file()
]

if not image_files:
    print("⚠️ 指定文件夹中没有可处理的图片")
    return

print(f"🔍 找到 {len(image_files)} 张图片,开始压缩...")
for img_file in image_files:
    rel_path = img_file.relative_to(input_path)
    out_file = output_path / rel_path.with_stem(f"{rel_path.stem}_compressed")
    compress_image(img_file, out_file, max_size, quality)

print(f"\n🎉 全部完成!压缩后图片保存在: {output_folder}")

if name == "main":
batch_compress("./photos", "./compressed", max_size=1200, quality=75)

脚本特性说明:

智能路径处理:使用Path.rglob()递归查找所有子目录中的图片
透明通道处理:自动将PNG的RGBA模式转换为RGB,避免JPEG保存错误
进度可视化:实时显示每张图片的压缩前后大小及节省比例
安全设计:输出路径自动创建,避免因目录不存在导致的错误
三、进阶优化:满足不同场景需求

  1. 动态质量调整(SSIM算法)
    对于需要极致压缩的场景,可通过结构相似性(SSIM)评估图片质量损失,动态调整压缩参数:

from math import log
from SSIM_PIL import compare_ssim # 需安装pyssim库

def get_ssim_at_quality(photo, quality):
"""计算指定质量下的SSIM值"""
temp_path = "temp.jpg"
photo.save(temp_path, format="JPEG", quality=quality, progressive=True)
ssim_score = compare_ssim(photo, Image.open(temp_path))
os.remove(temp_path)
return ssim_score

def find_optimal_quality(original_photo, target_ssim=0.95):
"""二分法寻找最优质量参数"""
low, high = 70, 95
while high - low > 2:
mid = (high + low) // 2
if get_ssim_at_quality(original_photo, mid) < target_ssim:
low = mid
else:
high = mid
return high

使用示例

img = Image.open("photo.jpg")
optimal_quality = find_optimal_quality(img)
img.save("optimized.jpg", quality=optimal_quality)

  1. 格式转换优化
    对于截图、图标等简单图形,转换为PNG格式并启用调色板优化可获得更好效果:

def compress_png(input_path, output_path, palette_size=256):
"""PNG无损压缩"""
img = Image.open(input_path)
if img.mode == "RGB":

    # 生成最优调色板
    palleted_img = img.convert(
        'P', 
        palette=Image.ADAPTIVE, 
        colors=palette_size
    )
    palleted_img.save(
        output_path, 
        optimize=True,
        compress_level=9  # 最大压缩级别
    )
  1. 多线程加速处理
    处理大量图片时,使用多线程可显著提升速度:

from concurrent.futures import ThreadPoolExecutor

def parallel_compress(input_folder, output_folder, max_workers=4):
"""多线程压缩"""
image_files = [f for f in Path(input_folder).rglob('*')
if f.suffix.lower() in ('.jpg', '.png') and f.is_file()]

with ThreadPoolExecutor(max_workers=max_workers) as executor:
    for img_file in image_files:
        rel_path = img_file.relative_to(input_folder)
        out_file = Path(output_folder) / rel_path.with_stem(f"{rel_path.stem}_compressed")
        executor.submit(
            compress_image, 
            img_file, 
            out_file, 
            max_size=1200, 
            quality=75
        )

四、实战案例:电商图片处理流程
某电商团队需要处理5000张产品图,要求:

统一尺寸为800×800像素
JPEG质量设置为80
保留原始文件名并添加"_web"后缀
生成处理报告
解决方案:
import pandas as pd
from datetime import datetime

def ecommerce_compress(input_folder, output_folder):
"""电商图片专用压缩流程"""
results = []
start_time = datetime.now()

for img_file in Path(input_folder).rglob('*.jpg'):
    try:
        # 创建输出路径
        rel_path = img_file.relative_to(input_folder)
        out_file = Path(output_folder) / rel_path.with_stem(f"{rel_path.stem}_web")
        out_file.parent.mkdir(parents=True, exist_ok=True)

        # 压缩处理
        with Image.open(img_file) as img:
            # 强制正方形裁剪(需先安装opencv-python)
            # import cv2
            # img = cv2.resize(np.array(img), (800,800))
            # img = Image.fromarray(img)

            # 简单缩放方案
            img.thumbnail((800, 800), Image.LANCZOS)
            img.save(out_file, "JPEG", quality=80, optimize=True)

        # 记录结果
        results.append({
            "文件名": img_file.name,
            "原始大小(KB)": os.path.getsize(img_file)//1024,
            "压缩后(KB)": os.path.getsize(out_file)//1024,
            "状态": "成功"
        })

    except Exception as e:
        results.append({
            "文件名": img_file.name,
            "原始大小(KB)": "-",
            "压缩后(KB)": "-",
            "状态": f"失败: {str(e)}"
        })

# 生成报告
df = pd.DataFrame(results)
report_path = Path(output_folder) / f"压缩报告_{datetime.now().strftime('%Y%m%d')}.csv"
df.to_csv(report_path, index=False)

print(f"\n处理完成!耗时: {(datetime.now()-start_time).seconds}秒")
print(f"详细报告已生成: {report_path}")

使用示例

ecommerce_compress("./raw_images", "./web_images")

五、常见问题解决方案

  1. 处理透明背景图片
    错误做法:直接保存为JPEG会丢失透明通道
    正确方案:

def handle_transparency(input_path, output_path):
img = Image.open(input_path)
if img.mode == "RGBA":

    # 创建白色背景
    background = Image.new("RGB", img.size, (255, 255, 255))
    background.paste(img, mask=img.split()[-1])
    background.save(output_path, "JPEG", quality=85)
else:
    img.save(output_path, "JPEG", quality=85)
  1. 保留EXIF信息
    使用piexif库可保留照片的拍摄参数:

import piexif

def save_with_exif(img, output_path, quality=85):
"""保存图片并保留EXIF信息"""
exif_dict = piexif.load(img.info['exif']) if 'exif' in img.info else {}
img.save(
output_path,
"JPEG",
quality=quality,
exif=piexif.dump(exif_dict)
)

  1. 处理超大图片
    对于超过100MB的TIFF格式图片,需先分块处理:

from PIL import ImageSequence

def process_large_tiff(input_path, output_path):
"""分块处理超大TIFF文件"""
with Image.open(input_path) as img:
for i, page in enumerate(ImageSequence.Iterator(img)):
page.thumbnail((4000, 4000)) # 先缩小尺寸
page.save(
f"{output_path}_page{i}.jpg",
"JPEG",
quality=80,
optimize=True
)

六、性能对比:不同压缩方案效率
方案 处理速度 压缩率 质量损失 适用场景
单纯尺寸压缩 ★★★★★ 中 无 网页显示
质量85压缩 ★★★★ 高 轻微 电商产品图
SSIM动态质量调整 ★★★ 极高 极小 高端摄影作品
PNG调色板优化 ★★ 中 无 简单图形/图标
多线程处理 ★★★★★ 高 同单线程 批量处理
实测数据显示:5000张图片处理时,单线程需2小时,8线程方案仅需25分钟。

七、总结:构建个性化图片处理流水线
通过组合本文介绍的技术模块,可构建满足不同需求的图片处理系统:

基础版:尺寸+质量压缩(适合大多数场景)
电商版:正方形裁剪+水印添加+EXIF保留
摄影版:SSIM动态质量+渐进式JPEG
极速版:多线程处理+缓存机制
建议从基础脚本开始,根据实际需求逐步添加功能模块。对于非技术用户,可使用PyInstaller将脚本打包为EXE文件,无需安装Python环境即可运行。

图片压缩的本质是在文件体积与视觉质量间寻找平衡点。掌握这些技术后,您不仅能节省存储空间,更能为网站加速、移动应用优化等场景提供关键支持。

目录
相关文章
|
24天前
|
XML 算法 数据格式
当Word文档里的图片成了“拦路虎”:用Python批量处理图片的实战指南
本文分享用Python批量处理Word文档图片的实战方案:利用python-docx提取图片、Pillow统一调整尺寸与格式,并自动插入新报告文档。附完整代码与常见问题(如浮动图、.doc格式)解决方案,助你3分钟完成原本一整天的手工活。
211 1
|
2月前
|
存储 SQL 缓存
快手:从分散存储到统一分析,Apache Doris 在万亿规模广告场景的应用
面对日增 3 亿行、万亿规模存量广告数据,快手广告数据平台如何突破性能瓶颈、实现架构统一与体验跃升? 快手引入 Apache Doris 替换 ClickHouse、Elasticsearch,从分散存储到统一分析,实现查询性能提升 20~90%,单表写入吞吐 300 万行/秒,存储效率提升 60%!
411 1
快手:从分散存储到统一分析,Apache Doris 在万亿规模广告场景的应用
|
JavaScript
VUE里的find与filter使用与区别
VUE里的find与filter使用与区别
1614 0
|
2月前
|
Python
Python类型提示:让代码更清晰、更可靠
Python类型提示:让代码更清晰、更可靠
303 133
|
3月前
|
SQL 存储 数据库
Python实现员工管理系统:从基础功能到完整应用开发指南
本文介绍如何用Python从零开发员工管理系统:基于SQLite实现员工信息、薪资计算、考勤记录等核心功能,支持命令行与Flask Web双界面,兼顾易用性与可扩展性,适合中小团队快速落地。(239字)
287 1
|
2月前
|
人工智能 JavaScript API
零门槛部署 Windows 系统本地及云上 AI 助手:OpenClaw(原 Clawdbot/Moltbot)保姆级教程
2026年初,一款名为OpenClaw的AI助手在开发者社区迅速走红,它前身为Clawdbot、Moltbot,经过品牌整合后统一命名为“OpenClaw”。这款AI助手并非传统意义上的聊天工具,而是具备“动手执行”能力的智能体——既能读写本地文件、执行代码、操控命令行,又能联网搜索、分析网页内容,还可接入Qwen、OpenAI等云端API或利用本地GPU运行模型,像“私人AI员工”般处理各类事务。
7227 9
|
2月前
|
数据采集 机器学习/深度学习 Java
Python多线程与多进程:性能对比与场景选择
本文深入剖析Python并发编程核心抉择:多线程 vs 多进程。结合GIL机制、真实性能测试(CPU密集型多进程快3.4倍,I/O密集型多线程快25%)、资源开销对比及混合架构实践,提供场景化决策树与调优指南,助开发者科学选型。(239字)
220 7
|
4月前
|
数据采集 监控 数据安全/隐私保护
一文搞定 Python 正则表达式:常用场景速查表
本文通过20个实战案例详解Python正则表达式在邮箱验证、数据提取、文本处理等场景的应用,涵盖基础语法、高级技巧与性能优化,助你高效掌握这一字符串处理利器。
327 1
|
4月前
|
数据采集 JSON 数据处理
Python编程实战:从函数到模块化——创建自己的模块与包
Python模块化编程通过拆分代码为模块和包,提升项目可维护性与复用性。合理使用import、包结构、__init__.py及最佳实践,可构建清晰、高效的代码体系,助力项目从“能运行”迈向“易维护”。(238字)
275 0
|
7月前
|
机器学习/深度学习 文字识别 Java
Python实现PDF图片OCR识别:从原理到实战的全流程解析
本文详解2025年Python实现扫描PDF文本提取的四大OCR方案(Tesseract、EasyOCR、PaddleOCR、OCRmyPDF),涵盖环境配置、图像预处理、核心识别与性能优化,结合财务票据、古籍数字化等实战场景,助力高效构建自动化文档处理系统。
1862 0

热门文章

最新文章

下一篇
开通oss服务