官方博客-第33页-阿里云开发者社区

  • 2024-05-15
    1139

    vLLM部署Yuan2.0:高吞吐、更便捷

    vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

    1,139
  • 2024-05-15
    508

    企业SaaS应用加速网络场景最佳实践

    企业分支通过SAG接入阿里云SDWAN网络,企业本地员工能够通过阿里云SDWAN应用加速线路实现加速访问SaaS服务,目前方案只支持office365、salesforce、ZOOM,后续会考虑加速逐步增加其他三方应用。

    508
  • 2024-05-16
    88536

    通义千问 2.5 “客串” ChatGPT4,看这篇让你分清楚

    这篇文章介绍了使用开源工具NextChat和Higress搭建的一个模拟ChatGPT和通义千问对话PK的测试场景。

    88,536
  • 708

    内附原文|SIGMOD’24:百万核的智能调度,云数仓如何结合AI处理用户混合负载

    论文提出的Flux通过使用AI技术将短时和长时查询解耦进行自动弹性,解决了云数据仓库的性能瓶颈,同时支持了资源按需预留。Flux优于传统的方法,查询响应时间 (RT) 最多可减少75%,资源利用率提高19.0%,成本开销降低77.8%。

  • 分析性能提升40%,阿里云Hologres流量场景最佳实践

    分析性能提升40%,阿里云Hologres流量场景最佳实践

  • 2024-08-15
    11749

    动手实践:高效构建企业级AI搜索

    本文介绍了基于阿里云 Elasticsearch的AI搜索产品能力、业务价值、场景应用,以及搭建演示等。

    11,749
  • 2024-09-04
    481

    WASM性能分析-插桩方案

    本文结合了代码插桩和性能火焰图的技术,以 WebAssembly 为例介绍了性能分析的方法和相关实现。

    481
  • 2024-09-14
    746

    阿里云函数计算 x NVIDIA 加速企业 AI 应用落地

    阿里云函数计算与 NVIDIA TensorRT/TensorRT-LLM 展开合作,通过结合阿里云的无缝计算体验和 NVIDIA 的高性能推理库,开发者能够以更低的成本、更高的效率完成复杂的 AI 任务,加速技术落地和应用创新。

    746
  • 1
    ...
    32
    33
    34
    ...
    86
    到第