带你读《云原生机密计算最佳实践白皮书》——AMD SEV机密容器(5)

简介: 带你读《云原生机密计算最佳实践白皮书》——AMD SEV机密容器(5)

《云原生机密计算最佳实践白皮书》——06运行时底座——AMD SEV机密容器(4) https://developer.aliyun.com/article/1231026?groupCode=aliyun_linux




基于online KBC运行机密容器

• 请下载支持online sev kbc 的 initrd:

wget https://mirrors.openanolis.cn/inclavare-containers/confifidential-containers-demo/bin/
ccv3-sev/initrd.run.online-sev.img -O /opt/confifidential-containers/share/kata-containers/
kata-containers-initrd-sev.img

• 自定义 policy ,请参考附录部分。

• 编辑 kata 配置文件:

kbs_ip="$(ip -o route get to 8.8.8.8 | sed -n 's/.*src \([0-9.]\+\).*/\1/p')"
sed -i 's/agent.enable_signature_verifification=false /&agent.aa_kbc_params=online_sev_kb
c::'$kbs_ip':44444/' /opt/confifidential-containers/share/defaults/kata-containers/
 confifiguration-qemu-sev.toml

• 启动 Pod

cat <<-EOF | kubectl apply -f -
apiVersion: v1
kind: Pod
metadata:
 labels:
 run: test-en-online
 name: test-en-online
spec:
 containers:
 - image: docker.io/haosanzi/busybox-v1:encrypted
 name: test-en-online
 imagePullPolicy: Always
 dnsPolicy: ClusterFirst
 restartPolicy: Never
 runtimeClassName: kata-qemu-sev
EOF

查看 pod 是否启动成功:

kubectl get po

预期结果如下:

NAME READY STATUS RESTARTS AGE
test-en-online 1/1 Running 0 146m

基于offlfflffline KBC运行加密容器

• 请下载支持offlfflffline KBC的initrd。

wget https://mirrors.openanolis.cn/inclavare-containers/confifidential-containers-demo/bin/
ccv3-sev/initrd.run.online-sev.img -O /opt/confifidential-containers/share/kata-containers/
kata-containers-initrd-sev.img

• 编辑 kata 配置文件:

kbs_ip="$(ip -o route get to 8.8.8.8 | sed -n 's/.*src \([0-9.]\+\).*/\1/p')"
sed -i 's/agent.enable_signature_verifification=false /&agent.aa_kbc_params=online_sev_kb
c::'$kbs_ip':44444/' /opt/confifidential-containers/share/defaults/kata-containers/

• 自定义 policy ,请参考附录部分。

• 启动 Pod

cat <<-EOF | kubectl apply -f -
apiVersion: v1
kind: Pod
metadata:
 labels:
 run: test-en-offlfflffline
 name: test-en-offlfflffline
spec:
 containers:
 - image: docker.io/haosanzi/busybox-v1:encrypted
 name: test-en-offlfflffline
 imagePullPolicy: Always
 dnsPolicy: ClusterFirst
 restartPolicy: Never
 runtimeClassName: kata-qemu-sev
EOF

查看 pod 是否启动成功:

kubectl get po

预期结果如下:

NAME READY STATUS RESTARTS AGE
test-en-offlfflffline 1/1 Running 0 31h




《云原生机密计算最佳实践白皮书》——06运行时底座——AMD SEV机密容器(6) https://developer.aliyun.com/article/1231023?groupCode=aliyun_linux

相关文章
|
Kubernetes 监控 开发者
掌握容器化:Docker与Kubernetes的最佳实践
【10月更文挑战第26天】本文深入探讨了Docker和Kubernetes的最佳实践,涵盖Dockerfile优化、数据卷管理、网络配置、Pod设计、服务发现与负载均衡、声明式更新等内容。同时介绍了容器化现有应用、自动化部署、监控与日志等开发技巧,以及Docker Compose和Helm等实用工具。旨在帮助开发者提高开发效率和系统稳定性,构建现代、高效、可扩展的应用。
|
存储 Cloud Native 数据处理
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
本文整理自阿里云资深技术专家、Apache Flink PMC 成员梅源在 Flink Forward Asia 新加坡 2025上的分享,深入解析 Flink 状态管理系统的发展历程,从核心设计到 Flink 2.0 存算分离架构,并展望未来基于流批一体的通用增量计算方向。
529 0
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
|
10月前
|
存储 缓存 分布式计算
StarRocks x Iceberg:云原生湖仓分析技术揭秘与最佳实践
本文将深入探讨基于 StarRocks 和 Iceberg 构建的云原生湖仓分析技术,详细解析两者结合如何实现高效的查询性能优化。内容涵盖 StarRocks Lakehouse 架构、与 Iceberg 的性能协同、最佳实践应用以及未来的发展规划,为您提供全面的技术解读。 作者:杨关锁,北京镜舟科技研发工程师
StarRocks x Iceberg:云原生湖仓分析技术揭秘与最佳实践
|
运维 Cloud Native 云计算
云原生技术:探索未来计算的无限可能
【10月更文挑战第8天】 云原生技术,作为云计算领域的一次革新性突破,正引领着企业数字化转型的新浪潮。它不仅重塑了应用的构建、部署和运行方式,还通过极致的弹性、敏捷性和可扩展性,解锁了未来计算的无限潜力。本文将深入浅出地解析云原生技术的核心理念、关键技术组件及其在不同行业中的实际应用案例,展现其如何赋能业务创新,加速企业的云化之旅。
201 7
|
人工智能 Cloud Native 安全
从云原生到 AI 原生,网关的发展趋势和最佳实践
本文整理自阿里云智能集团资深技术专家,云原生产品线中间件负责人谢吉宝(唐三)在云栖大会的精彩分享。讲师深入浅出的分享了软件架构演进过程中,网关所扮演的各类角色,AI 应用的流量新特征对软件架构和网关所提出的新诉求,以及基于阿里自身实践所带来的开源贡献和商业能力。
1087 102
|
Cloud Native Serverless 数据中心
阿里云ACK One:注册集群支持ACS算力——云原生时代的计算新引擎
ACK One注册集群已正式支持ACS(容器计算服务)算力,为企业的容器化工作负载提供更多选择和更强大的计算能力。
|
Cloud Native 关系型数据库 Serverless
基于阿里云函数计算(FC)x 云原生 API 网关构建生产级别 LLM Chat 应用方案最佳实践
本文带大家了解一下如何使用阿里云Serverless计算产品函数计算构建生产级别的LLM Chat应用。该最佳实践会指导大家基于开源WebChat组件LobeChat和阿里云函数计算(FC)构建企业生产级别LLM Chat应用。实现同一个WebChat中既可以支持自定义的Agent,也支持基于Ollama部署的开源模型场景。
1965 117
|
Cloud Native Serverless 数据中心
阿里云ACK One:注册集群支持ACS算力——云原生时代的计算新引擎
阿里云ACK One:注册集群支持ACS算力——云原生时代的计算新引擎
410 10
|
人工智能 安全 API
容器化AI模型的安全防护实战:代码示例与最佳实践
本文基于前文探讨的容器化AI模型安全威胁,通过代码示例展示如何在实际项目中实现多层次的安全防护措施。以一个基于TensorFlow的图像分类模型为例,介绍了输入验证、模型加密、API认证和日志记录的具体实现方法,并结合最佳实践,如使用安全容器镜像、限制权限、网络隔离等,帮助构建更安全的AI服务。
|
运维 Cloud Native Serverless
Serverless Argo Workflows大规模计算工作流平台荣获信通院“云原生技术创新标杆案例”
2024年12月24日,阿里云Serverless Argo Workflows大规模计算工作流平台荣获由中国信息通信研究院颁发的「云原生技术创新案例」奖。

热门文章

最新文章