llama.cpp作者创业,用纯C语言框架降低大模型运行成本

简介: llama.cpp作者创业,用纯C语言框架降低大模型运行成本


大模型的应用前景将越来越广泛。

通常,神经网络的推理代码是使用 Python 语言编写的。但相比于 Python,C/C++ 代码运行速度更快,编写过程更严谨,因此一些开发者尝试用 C/C++ 语言实现神经网络。


在众多使用 C/C++ 语言编写神经网络代码的开发者中,Georgi Gerganov 是一位佼佼者。Georgi Gerganov 是资深的开源社区开发者,曾为 OpenAI 的 Whisper 自动语音识别模型开发 whisper.cpp。


Georgi Gerganov


今年 3 月 Georgi Gerganov 又构建了开源项目 llama.cpp,llama.cpp 让开发者在没有 GPU 的条件下也能运行 Meta 的 LLaMA 模型。llama.cpp 让开发者在没有 GPU 的条件下也能运行 LLaMA 模型。项目发布后,很快就有开发者尝试并成功在 MacBook 和树莓派上运行 LLaMA。


打开 Georgi Gerganov 的个人主页,我们发现全是开源项目,满满的干货。


现在,Georgi Gerganov 宣布创立一家新公司 ggml.ai,旨在支持 ggml 的开发。ggml 是 Georgi Gerganov 使用 C/C++ 构建了机器学习张量库,能够帮助开发者在消费级硬件上实现大模型,并提升模型性能。ggml 张量库具有以下特点:


  • 用 C 语言编写;
  • 支持 16bit 浮点数;
  • 支持整数量化(包括 4 位、5 位、8 位);
  • 自动微分;
  • 内置优化算法(例如 ADAM、L-BFGS);
  • 为 Apple 芯片设置特定优化;
  • 在 x86 架构上使用 AVX / AVX2 Intrinsic;
  • 通过 WebAssembly 和 WASM SIMD 提供 Web 支持;
  • 无第三方依赖;
  • 运行时零内存分配;
  • 支持指导型语言输出。


作为纯 C 语言编写的框架,ggml 大幅降低了大模型的运行成本。llama.cpp 和 whisper.cpp 都使用了 ggml,我们来看一下使用 llama.cpp 和 whisper.cpp 的例子。


下图是一个在树莓派上使用 whisper.cpp 检测短语音命令的例子:


在单个 M1 Pro 上同时运行 LLaMA-13B + Whisper Small 的 4 个实例,如下图所示:


在 M2 Max 上以 40 tok/s 的速度运行 LLaMA-7B,如下图所示:


总体来说,ggml 让本地运行大型语言模型变得更容易,操作更便捷。Georgi Gerganov 成立新公司之后,简单高效的 ggml 张量库将获得更多开发者和投资者的支持。我们相信随着开发人员在技术层面做出努力,大模型的应用前景将会越来越广泛。


参考链接:http://ggml.ai/

相关文章
|
29天前
|
存储 编译器 C语言
【数据结构】C语言实现链队列(附完整运行代码)
【数据结构】C语言实现链队列(附完整运行代码)
36 0
|
29天前
|
存储 算法 程序员
【数据结构】C语言实现顺序表万字详解(附完整运行代码)
【数据结构】C语言实现顺序表万字详解(附完整运行代码)
39 0
|
1月前
|
存储 编译器 程序员
C语言的模型玩具:结构体的使用以及操作符优先级
C语言的模型玩具:结构体的使用以及操作符优先级
|
3月前
|
存储 自然语言处理 程序员
C语言程序运行过程
C语言程序运行过程
28 0
|
26天前
|
C语言 索引
基于C语言的函数指针应用-消息命令处理框架
基于C语言的函数指针应用-消息命令处理框架
11 0
|
4月前
|
自然语言处理 Java 编译器
C语言是什么 C语言历史 编译器怎么运行C语言的代码 怎么学好C语言
C语言是什么 C语言历史 编译器怎么运行C语言的代码 怎么学好C语言
|
5月前
|
存储 C语言
c语言程序的框架以及内容
c语言程序的框架以及内容
147 0
|
6月前
|
存储 Linux 程序员
关于c语言,你必须了解的运行流程
关于c语言,你必须了解的运行流程
144 0
|
7月前
|
存储 安全 Java
使您的软件运行起来: 防止缓冲区溢出(C语言精华帖)
使您的软件运行起来: 防止缓冲区溢出(C语言精华帖)
38 1