请教一个关于文件存储NAS的问题。问题一:
同一个可用区的多个 NAS 实例,是独享还是共享这个存储规格?
问题二:没明白没有必要是什么意思?
是说多个nfs没必要,还是说限制多个nfs共享读取性能指标没必要?问题三: 我遇到的问题是 Tekton 默认需要 pvc 在多个 task 之间共享数据。
如果所有的 pvc 都使用同一个 NFS,那么肯定是共享这个 NFS 的读取性能的。
如果一些 cache 也使用相同的 NFS,那就会互相影响,在并发任务数较多时,每个任务可用的磁盘性能就有限。
如果多个 NFS 实例是独立的,互相不影响,至少普通的 pvc 和 cache 的 pvc 可以分离开,两者互相不影响。 问题四:可能是在 k8s 集群中使用了。
可能会有 30+ 个 Pod 都会挂载自己的 pvc。(storage class 就是 NFS)
有的 Pod 会在 pvc 上做大量的文件读写操作。(比如前端项目会下载依赖等)
机器的话都是标准的 centos 或 ubuntu,16CPU 32G 这种规模吧。
问题一:同一可用区内的多个 NAS 实例是独享存储规格的。每个 NAS 实例都拥有独立的存储空间,不会与其他 NAS 实例共享存储容量,但通过 VPC 网络,它们可以互相访问。
问题二:这里的“没有必要”是指使用多个 NFS 服务共享读取性能指标的限制是没有必要的。如果您只是需要提供文件存储服务,可以使用单个 NFS 服务来满足需求,而不必设置多个 NFS 服务。
问题三:对于 Tekton 默认需要 pvc 在多个 task 之间共享数据的场景,如果所有的 pvc 都使用同一个 NFS,那么会存在性能瓶颈的风险,因为所有任务都需要共享同一个 NFS 的读取性能。如果一些 cache 也使用相同的 NFS,那就会互相影响。为了避免这种情况,可以选择使用多个独立的 NFS 实例,把 pvc 和 cache 的 pvc 分离开,以提高并发任务的磁盘性能。
问题四:在 k8s 集群中使用多个 NFS 服务时,需要考虑并发访问的情况。如果多个 Pod 同时挂载自己的 pvc,会对 NFS 服务造成一定的压力。建议使用高性能的云盘和强大的计算资源,以提高 NFS 服务的性能和稳定性。同时,可以通过调整 NFS 服务的参数和优化存储和访问模式等方式,来提高 NFS 服务的性能和吞吐量。
针对问题一的回答:没有必要啊 针对问题二的回答:一个存储池可以挂很多个ecs 。第一个看你做什么第二个看病发量第三个看你的容量。针对问题三的回答:大约多少台机器一起用,然后还要看机器的系统。针对问题四的回答:建议选第二个。 --此回答整理自钉群“文件存储NAS官方技术支持服务群”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
阿里云文件存储 NAS(Apsara File Storage NAS)是一个可大规模共享访问,弹性扩展的分布式文件系统。广泛应用于企业级应用数据共享、容器数据存储、AI 机器学习、Web 服务和内容管理、应用程序开发和测试、媒体和娱乐工作流、数据库备份等场景。