Amazon S3

简介: Amazon S3

image.png

Amazon Simple Storage Service (Amazon S3) 是一种面向 Internet 的存储服务。您可以通过 Amazon S3 随时在 Web 上的任何位置存储和检索的任意大小的数据

官方文档

www.amazonaws.cn/documentati…

运维把服务配好以后,给了一个账号,可以登录查看S3的存储效果

作为一个职业前端选手,看到官方提供了Node的开发文档,果断使用Node进行效果测试

在配置文件配置 aws_key 和 aws_secret 以及 region_name (注意:国内北京区域是 cn-north-1)

配置好以后发现通过官方提供的 Demo 连接不上,总是提示 Key 错误,找了好多方案都没解决,当时就无语了,后来继续看官方文档,后来想到 python 也有实现,要不换 python 试试?配置之类的都没变,python 代码拿来就能跑,既然这么顺,那就用 python 做开发测试吧

获取存储桶名称
import boto3
s3 = boto3.resource('s3')
# 获取存储桶名称
for bucket in s3.buckets.all():
    print(bucket.name)

上传

import boto3
s3 = boto3.client('s3')
# 上传本地图片
data = open('test.jpg', 'rb')
s3.Bucket('skin-test').put_object(Key='test.jpg', Body=data)
# 通过名称上传文件
s3.upload_file('test.jpg', 'skin-test', 'test-file2.jpg')
# 上传时 ExtraArgs 用于指定附加参数,例如用户提供元数据
s3.upload_file(
    "test.jpg", "skin-test", "test-file3.jpg",
    ExtraArgs={"Metadata": {"mykey": "myvalue"}}
)
# 上传一个可读的类文件对象
with open('package-lock.json', 'rb') as f:
    s3.upload_fileobj(f, 'skin-test', 'package-lock.json')

获取上传进度

# 为了跟踪传输的进度,可以提供进度回调,以便每次在传输进度时调用回调
import os 
import sys
import threading
import boto3
class ProgressPercentage(object):
    def __init__(self, filename):
        self._filename = filename
        self._size = float(os.path.getsize(filename))
        self._seen_so_far = 0 
        self._lock = threading.Lock()
    def __call__(self, bytes_amount):
        with self._lock:
            self._seen_so_far += bytes_amount
            percentage = (self._seen_so_far / self._size) * 100
            sys.stdout.write(
                "\r%s %s / %s (%.2f%%)" % (
                    self._filename, self._seen_so_far, self._size, percentage))
            sys.stdout.flush()
s3 = boto3.client('s3')
s3.upload_file(
    "001.tif", "skin-test", "001.tif",
    Callback=ProgressPercentage("001.tif"))

下载

# 根据名称下载文件
import boto3
s3 = boto3.client('s3')
s3.download_file("skin-test", "001.tif", "001.tif")

显示下载进度

import sys
import threading
import boto3
class ProgressPercentage(object):
    def __init__(self, filename):
        self._filename = filename
        self._seen_so_far = 0
        self._lock = threading.Lock()
    def __call__(self, bytes_amount):
        with self._lock:
            self._seen_so_far += bytes_amount
            sys.stdout.write(
                "\r%s --> %s bytes transferred" % (
                    slf._filename, self._seen_so_far))
            sys.stdout.flush()
s3 = boto3.client('s3')
s3.download_file(
    "skin-test", "001.tif", "download_001.tif",
    Callback=ProgressPercentage("download_001.tif"))

生成预签名url链接

import boto3
import requests
s3 = boto3.client('s3')
url = s3.generate_presigned_url(
    ClientMethod='get_object',
    Params={
        'Bucket': 'skin',
        'Key': 'server2.js'
    }
)
print(url)

注意:这里需要进行ICP备案以后url才能正常运行,否则会提示无权操作

You are not authorized to perform this operation


目录
相关文章
|
6月前
|
存储 安全 关系型数据库
AWS介绍
AWS介绍
149 0
|
6月前
|
存储 人工智能 大数据
云计算平台:AWS、Azure和Google Cloud的比较与选择
在当今数字化时代,云计算平台成为了企业和个人的首选。本文将重点比较三大主流云计算平台:AWS、Azure和Google Cloud,从性能、功能、可用性以及定价等方面进行综合评估,帮助读者更好地选择适合自己需求的云计算平台。
|
6月前
|
Python
Amazon SageMaker
基于 Amazon SageMaker 的低成本 CI/CD 系统最佳实践包括以下几个方面:
57 1
|
机器学习/深度学习 存储 人工智能
「云市场2019」IaaS&PaaS 三强:AWS,Azure,GCP
「云市场2019」IaaS&PaaS 三强:AWS,Azure,GCP
|
存储 大数据 测试技术
3.2.1存储服务 亚马逊 AWS|学习笔记
快速学习3.2.1存储服务 亚马逊 AWS
3.2.1存储服务 亚马逊 AWS|学习笔记
|
存储 弹性计算 缓存
3.1.1计算服务亚马逊 AWS|学习笔记(一)
快速学习3.1.1计算服务亚马逊 AWS
3.1.1计算服务亚马逊 AWS|学习笔记(一)
|
存储 网络协议 安全
3.1.1计算服务亚马逊 AWS|学习笔记(二)
快速学习3.1.1计算服务亚马逊 AWS
3.1.1计算服务亚马逊 AWS|学习笔记(二)
|
存储 JSON 关系型数据库
【AWS系列】什么是DynamoDB
1. Truncate 操作:DynamoDB不支持 Truncate操作,最简单的办法是删表重建即可;如果需要删掉一部分数据,可以写脚本用scan 查出 PK 的列表逐个进行删除;还可以设置表的过期时间,让这批数据定期失效即可。2. JavaScript 有两个类库:一种使用了 DynamoDB Json其中包括了数据的类型,需要调用相关的marshal 和 unmarshal方法来转换成标准的 Json3.批量操作:DynamoDB 中批量操作有25 的数据量。
402 0
【AWS系列】什么是DynamoDB
|
智能硬件
Amazon Exclusives 会成为下一个 Kickstarter 吗?
随着创客运动的兴起,一大帮有梦青年开始投身智能硬件等新创领域,并随之出现了一大批新鲜创意产品。然而,极客发烧友抑或普通消费者想要购买到这些创意产品的渠道依然还是比较狭窄的,他们往往只能到一些众筹平台或直接去其官网进行采购。
127 0
Amazon Exclusives 会成为下一个 Kickstarter 吗?