随着AI工作负载的爆炸式增长,服务提供商和企业需要加速计算,以安全高效地在大规模云上交付高性能的AI应用。前段时间,F5公司宣布推出一项全新的创新AI应用交付和应用安全解决方案,即BIG-IP Next for Kubernetes。那么该方案有何性能优势,是否通过实践验证?本文将为你全面解读。
F5 BIG-IP Next for Kubernetes是专门为Kubernetes环境设计的解决方案,并已在大型电信云和5G基础设施中得到验证。该技术现可提供针对领先AI用例的定制化服务,例如推理、检索增强生成(RAG)以及无缝的数据管理和存储,与NVIDIA BlueField-3 DPU的集成最小化了硬件占用空间,实现了细粒度的多租户,同时实现能源消耗优化,并提供高性能的网络、安全和流量管理。
专为高需求服务提供商和大型基础设施设计的F5 BIG-IP Next for Kubernetes可带来以下价值:与客户的前端网络无缝集成,显著降低延迟,同时提供高性能的负载均衡,以处理上亿参数AI模型及高达万亿次运维操作的海量数据需求。此外,该方案还具有丰富的可观测性和细粒度信息,支持HTTP之外的多项L7协议,确保在极高性能下实现增强的入站和出站控制。此外, 客户可完全自动化AI训练和推理端点发现和安全功能,加强数据完整性和主权,同时解决现代 AI环境中至关重要的加密能力。
F5首席技术官和人工智能官Kunal Anand也表示,“目前各大企业正在构建AI工厂,即为大规模训练AI模型及提供推理所需的强大处理能力而设计的高度优化环境,其速度惊人且具备最低延迟。而F5强大的应用交付和安全服务与NVIDIA的全栈加速计算形成了强大的生态系统。该集成解决方案覆盖从硬件加速层到应用界面的整个AI工作负载堆栈,为客户提供了增强的可观察性、精细化控制和性能优化。”
对于许多公司而言,部署尖端的AI 需要大量的基础设施建设,然而这些建设往往十分复杂且昂贵,使得高效和安全的操作比以往任何时候都更加重要。借助于F5和NVIDIA合作加速AI应用交付的新技术,企业不仅提高了基础设施的效率,且实现了更快、更敏捷的AI推理,并可最终提供增强AI驱动的客户体验。