2024-05-15
367

vLLM部署Yuan2.0:高吞吐、更便捷

vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

2019-12-24
1882

资源编排ROS之自定制资源(基础篇)

本文介绍资源编排ROS的基础知识配置。

2021-08-13
1717

用SLS配置日志关键字告警的N种方法

本文主要介绍一种免运维,高性能,支持灵活配置的方案,使用SLS接入日志和告警。

1,717
4474

Apache Paimon 在同程旅行的探索实践

本文主要介绍 Apache Paimon 在同程旅行的生产落地实践经验。

2023-06-26
8568

Hologres弹性计算在OLAP分析上的实践和探索

本文介绍了OLAP分析在大数据分析中的位置,分析并介绍目前大数据OLAP遇到的分析性能、资源隔离、高可用、弹性扩缩容等核心问题,解析阿里云Hologres是如何解决极致性能、弹性、业务永续、性价比等核心刚需的最佳实践,介绍阿里云Hologres弹性计算组在弹性计算、资源隔离上的探索和创新。

8,568
2023-10-26
158089

如何充分发挥 SQL 能力?

如何充分发挥 SQL 能力,是本篇文章的主题。本文尝试独辟蹊径,强调通过灵活的、发散性的数据处理思维,就可以用最基础的语法,解决复杂的数据场景。

158,089
2024-05-15
914

一文详解 Java 限流接口实现

本文介绍的实现方式属于应用级限制,应用级限流方式只是单应用内的请求限流,不能进行全局限流。要保证系统的抗压能力,限流是一个必不可少的环节,虽然可能会造成某些用户的请求被丢弃,但相比于突发流量造成的系统宕机来说,这些损失一般都在可以接受的范围之内。

914
2024-05-15
324

Modelscope结合α-UMi:基于Modelscope的多模型协作Agent

基于单个开源小模型的工具调用Agent,由于模型容量和预训练能力获取的限制,无法在推理和规划、工具调用、回复生成等任务上同时获得比肩大模型等性能。

2024-05-15
396

元象大模型开源30款量化版本 加速低成本部署丨附教程

元象大模型一次性发布30款量化版本,全开源,无条件免费商用。

1
...
7
8
9
...
17
到第
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
8/17