深入了解 Node 的多进程服务

简介: 深入了解 Node 的多进程服务

深入了解 Node 的多进程服务

我们现在已经知道了Node是单线程运行的,这表示潜在的错误有可能导致线程崩溃,然后进程也会随着退出,无法做到企业追求的稳定性;另一方面,单进程也无法充分多核CPU,这是对硬件本身的浪费。Node社区本身也意识到了这一问题,于是从0.1版本就提供了child_process模块,用来提供多进程的支持。

1. child_process 模块

child_process模块中包括了很多创建子进程的方法,包括forkspawnexecexecFile等等。它们的定义如下:

  • child_process.exec(command[, options][, callback])
  • child_process.spawn(command[, args][, options])
  • child_process.fork(modulePath[, args][, options])
  • child_process.execFile(file[, args][, options][, callback])

在这4个API中以spawn最为基础,因为其他三个API或多或少都是借助spawn实现的。

2. spawn

spawn方法的声明格式如下:

child_process.spawn(command[, args][, options])

spawn方法会使用指定的command来生成一个新进程,执行完对应的command后子进程会自动退出。

该命令返回一个child_process对象,这代表开发者可以通过监听事件来获得命令执行的结果。

下面我们使用spwan来执行ls命令:

const spawn = require('child_process').spawn;
const ls = spawn('ls', ['-1h', '/usr']);
ls.stdout.on('data', (data) => {
    console.log('stdout: ', daata.toString());
});
ls.stderr.on('data', (data) => {
    console.log('stderr: ', daata.toString());
});
ls.on('close', (code) => {
    console.log('child process exited with code', code);
});

其中spawn的第一个参数虽然是command,但实际接收的却是一个file,可以在Linux或者Mac OSX上运行,这是由于ls命令也是以可执行文件形式存在的。

类似的,在Windows系统下我们可以试着使用dir命令来实现功能类似的代码:

const spawn = require('child_process').spawn;
const ls = spawn('dir');
ls.stdout.on('data', (data) => {
    console.log('stdout: ', daata.toString());
});

然而在Windows下执行上面代码会出现形如Error:spawn dir ENOENT的错误。

原因就在于spawn实际接收的是一个文件名而非命令,正确的代码如下:

const spawn = require('child_process').spawn;
const ls = spawn('powershell', ['dir']);
ls.stdout.on('data', (data) => {
    console.log('stdout: ', daata.toString());
});

这个问题的原因与操作系统本身有关,在Linux中,一般都是文件,命令行的命令也不例外,例如ls命令是一个名为ls的可执行文件;而在Windows中并没有名为dir的可执行文件,需要通过cmd或者powershell之类的工具提供执行环境。

3. fork

在Linux环境下,创建一个新进程的本质是复制一个当前的进程,当用户调用 fork 后,操作系统会先为这个新进程分配空间,然后将父进程的数据原样复制一份过去,父进程和子进程只有少数值不同,例如进程标识符(PD)。

对于 Node 来说,父进程和子进程都有独立的内存空间和独立的 V8 实例,它们和父进程唯一的联系是用来进程间通信的 IPC Channel。

此外,Node中fork和 POSIX 系统调用的不同之处在于Node中的fork并不会复制父进程。

Node中的fork是上面提到的spawn的一种特例,前面也提到了Node中的fork并不会复制当前进程。多数情况下,fork接收的第一个参数是一个文件名,使用fork("xx.js")相当于在命令行下调用node xx.js,并且父进程和子进程之间可以通过process.send方法来进行通信。

下面我们来看一个简单的栗子:

// master.js 调用 fork 来创建一个子进程
const child_process = require('child_process');
const worker = child_process.fork('worker.js', ['args1']);
worker.on('exit', () => {
  console.log('child process exit');
});
worker.send({ msg: 'hello child' });
worker.on('message', msg => {
  console.log('from child: ', msg);
});
// worker.js
const begin = process.argv[2];
console.log('I am worker ' + begin);
process.on('message', msg => {
  console.log('from parent ', msg);
  process.exit();
});
process.send({ msg: 'hello parent' });

fork内部会通过spawn调用process.executePath,即Node的可执行文件地址来生成一个Node实例,然后再用这个实例来执行fork方法的modulePath参数。

输出结果为:

I am worker args1
from parent  { msg: 'hello child' }
from child:  { msg: 'hello parent' }
child process exit

4. exec 和 execFile

如果我们开发一种系统,那么对于不同的模块可能会用到不同的技术来实现,例如 Web服务器使用 Node ,然后再使用 Java 的消息队列提供发布订阅服务,这种情况下通常使用进程间通信的方式来实现。

但有时开发者不希望使用这么复杂的方式,或者要调用的干脆是一个黑盒系统,即无法通过修改源码来进行来实现进程间通信,这时候往往采用折中的方式,例如通过 shell 来调用目标服务,然后再拿到对应的输出。

child_process提供了一个execFile方法,它的声明如下:

child_process.execFile(file, args, options, callback)

说明:

  • file {String}要运行的程序的文件名
  • args {Array}字符串参数列表
  • options {Object}
  • cwd {String}子进程的当前工作目录
  • env {Object}环境变量键值对
  • encoding {String}编码(默认为 'utf8'
  • timeout {Number}超时(默认为 0)
  • maxBuffer {Number}缓冲区大小(默认为 200*1024)
  • killSignal {String}结束信号(默认为'SIGTERM'
  • callback {Function}进程结束时回调并带上输出
  • error {Error}
  • stdout {Buffer}
  • stderr {Buffer}
  • 返回:ChildProcess对象

可以看出,execfilespawn在形式上的主要区别在于execfile提供了一个回调函数,通过这个回调函数可以获得子进程的标准输出/错误流。

使用 shell 进行跨进程调用长久以来被认为是不稳定的,这大概源于人们对控制台不友好的交互体验的恐惧(输入命令后,很可能长时间看不到一个输出,尽管后台可能在一直运算,但在用户看来和死机无异)。

在 Linux下执行exec命令后,原有进程会被替换成新的进程,进而失去对新进程的控制,这代表着新进程的状态也没办法获取了,此外还有 shell 本身运行出现错误,或者因为各种原因出现长时间卡顿甚至失去响应等情况。

Node.js 提供了比较好的解决方案,timeout解决了长时间卡顿的问题,stdoutstderr则提供了标准输出和错误输出,使得子进程的状态可以被获取。

5. 各方法之间的比较

5.1 spawn 和 execFile

为了更好地说明,我们先写一段简单的 C 语言代码,并将其命名为 example.c:

#include<stdio.h>
int main() {
    printf("%s", "Hello World!");
    return 5;
}

使用 gcc 编译该文件:

gcc example.c -o example

生成名为example的可执行文件,然后将这个可执行文件放到系统环境变量中,然后打开控制台,输入example,看到最后输出"Hello World"

确保这个可执行文件在任意路径下都能访问。

我们分别用spawnexecfile来调用example文件。

首先是spawn

const spawn = require('child_process').spawn;
const ls = spawn('example');
ls.stdout.on('data', (data) => {
    console.log('stdout: ', daata.toString());
});
ls.stderr.on('data', (data) => {
    console.log('stderr: ', daata.toString());
});
ls.on('close', (code) => {
    console.log('child process exited with code', code);
});

程序输出:

stdout: Hello World!
child process exited with code 5

程序正确打印出了Hello World,此外还可以看到example最后的return 5会被作为子进程结束的code被返回。

然后是execFile

const exec = require('child_process').exec;
const child = exec('example', (error, stdout, stderr) => {
    if (error) {
        throw error;
    }
    console.log(stdout);
});

同样打印出Hello World,可见除了调用形式不同,二者相差不大。

5.2 execFile 和 spawn

在子进程的信息交互方面,spawn使用了流式处理的方式,当子进程产生数据时,主进程可以通过监听事件来获取消息;而exec是将所有返回的信息放在stdout里面一次性返回的,也就是该方法的maxBuffer参数,当子进程的输出超过这个大小时,会产生一个错误。

此外,spawn有一个名为shell的参数:

其类型为一个「布尔值」或者「字符串」,如果这个值被设置为true,,就会启动一个 shell 来执行命令,这个 shell 在 UNIX上是 bin/sh,,在Windows上则是cmd.exe。

5.3 exec 和 execFile

exec在内部也是通过调用execFile来实现的,我们可以从源码中验证这一点,在早期的Node源码中,exec命令会根据当前环境来初始化一个 shell,,例如 cmd.exe 或者 bin/sh,然后在shell中调用作为参数的命令。

通常execFile的效率要高于exec,这是因为execFile没有启动一个 shell,而是直接调用 spawn来实现的。

6. 进程间通信

前面介绍的几个用于创建进程的方法,都是属于child_process的类方法,此外childProcess类继承了EventEmitter,在childProcess中引入事件给进程间通信带来很大的便利。

childProcess中定义了如下事件。

  • Event:'close':进程的输入输出流关闭时会触发该事件。
  • Event:'disconnect':通常childProcess.disconnect调用后会触发这一事件。
  • Event:'exit':进程退出时触发。
  • Event:'message':调用child_process.send会触发这一事件
  • Event:'error':该事件的触发分为几种情况:
  • 该进程无法创建子进程。
  • 该进程无法通过kill方法关闭。
  • 无法发送消息给子进程。

Event:'error'事件无法保证一定会被触发,因为可能会遇到一些极端情况,例如服务器断电等。

上面也提到,childProcess模块定义了send方法,用于进程间通信,该方法的声明如下:

child.send(message[, sendHandle[, options]][, callback])

通过send方法发送的消息,可以通过监听message事件来获取。

// master.js 父进程向子进程发送消息
const child_process = require('child_process');
const worker = child_process.fork('worker.js', ['args1']);
worker.on('exit', () => {
  console.log('child process exit');
});
worker.send({ msg: 'hello child' });
worker.on('message', msg => {
  console.log('from child: ', msg);
});
// worker.js 子进程接收父进程消息
const begin = process.argv[2];
console.log('I am worker ' + begin);
process.on('message', msg => {
  console.log('from parent ', msg);
  process.exit();
});
process.send({ msg: 'hello parent' });

send方法的第一个参数类型通常为一个json对象或者原始类型,第二个参数是一个句柄,该句柄可以是一个net.Socket或者net.Server对象。下面是一个例子:

//master.js 父进程发送一个 Socket 对象
const child = require('child_process').fork('worker.js');
// Open up the server object and send the handle.
const server = require('net').createServer();
server.on('connection', socket => {
  socket.end('handled by parent');
});
server.listen(1337, () => {
  child.send('server', server);
});
//worker.js 子进程接收 Socket 对象
process.on('message', (m, server) => {
  if (m === 'server') {
    server.on('connection', socket => {
      socket.end('handled by child');
    });
  }
});

7. Cluster

前面已经介绍了child_process的使用,child_process的一个重要使用场景是创建多进程服务来保证服务稳定运行。

为了统一 Node 创建多进程服务的方式,Node 在之后的版本中增加了Cluster模块,Cluster可以看作是做了封装的child_Process模块。

Cluster模块的一个显著优点是可以共享同一个socket连接,这代表可以使用Cluster模块实现简单的负载均衡。

下面是Cluster的简单栗子:

const cluster = require('cluster');
const http = require('http');
const numCPUs = require('os').cpus().length;
if (cluster.isMaster) {
  console.log('Master process id is', process.pid);
  // Fork workers.
  for (let i = 0; i < numCPUs; i++) {
    cluster.fork();
  }
  cluster.on('exit', (worker, code, signal) => {
    console.log('worker process died, id ', worker.process.pid);
  });
} else {
  // Worker 可以共享同一个 TCP 连接
  // 这里的例子是一个 http 服务器
  http.createServer((req, res) => {
    res.writeHead(200);
    res.end('hello world\n');
  }).listen(8000);
  console.log('Worker started, process id', process.pid);
}

上面是使用Cluster模块的一个简单的例子,为了充分利用多核CPU,先调用OS模块的cpus()方法来获得CPU的核心数,假设主机装有两个 CPU,每个CPU有4个核,那么总核数就是8。

在上面的代码中,Cluster模块调用fork方法来创建子进程,该方法和child_process中的fork是同一个方法。

Cluster模块采用的是经典的主从模型,由master进程来管理所有的子进程,可以使用cluster.isMaster属性判断当前进程是master还是worker,其中主进程不负责具体的任务处理,其主要工作是负责调度和管理,上面的代码中,所有的子进程都监听8000端口。

通常情况下,如果多个 Node 进程监听同一个端口时会出现Error: listen EADDRINUS的错误,而Cluster模块能够让多个子进程监听同一个端口的原因是master进程内部启动了一个 TCP 服务器,而真正监听端口的只有这个服务器,当来自前端的请求触发服务器的connection事件后,master会将对应的socket句柄发送给子进程。


相关文章
|
29天前
|
缓存 JavaScript Unix
Node.js 多进程
10月更文挑战第8天
30 0
|
2月前
|
Web App开发 JavaScript 前端开发
构建高效后端服务:Node.js与Express框架的实战指南
【9月更文挑战第6天】在数字化时代的潮流中,后端开发作为支撑现代Web和移动应用的核心,其重要性不言而喻。本文将深入浅出地介绍如何使用Node.js及其流行的框架Express来搭建一个高效、可扩展的后端服务。通过具体的代码示例和实践技巧,我们将探索如何利用这两个强大的工具提升开发效率和应用性能。无论你是后端开发的新手还是希望提高现有项目质量的老手,这篇文章都将为你提供有价值的见解和指导。
|
3月前
|
存储 负载均衡 监控
检索服务elasticsearch节点(Node)
【8月更文挑战第23天】
56 5
|
3月前
|
JavaScript 前端开发 中间件
构建高效后端服务:Node.js与Express框架的完美搭档
【8月更文挑战第28天】在追求高性能、可扩展和易维护的后端开发领域,Node.js和Express框架的组合提供了一种轻量级且灵活的解决方案。本文将深入探讨如何利用这一组合打造高效的后端服务,并通过实际代码示例展示其实现过程。
|
1月前
|
Java 关系型数据库 MySQL
java控制Windows进程,服务管理器项目
本文介绍了如何使用Java的`Runtime`和`Process`类来控制Windows进程,包括执行命令、读取进程输出和错误流以及等待进程完成,并提供了一个简单的服务管理器项目示例。
32 1
|
2月前
|
存储 Linux Docker
CentOS 7.6安装Docker实战案例及存储引擎和服务进程简介
关于如何在CentOS 7.6上安装Docker、介绍Docker存储引擎以及服务进程关系的实战案例。
136 3
CentOS 7.6安装Docker实战案例及存储引擎和服务进程简介
|
2月前
|
SQL JavaScript 关系型数据库
Node服务连接Mysql数据库
本文介绍了如何在Node服务中连接MySQL数据库,并实现心跳包连接机制。
40 0
Node服务连接Mysql数据库
|
3月前
|
监控 JavaScript 前端开发
深入浅出Node.js: 打造高效的后端服务
【8月更文挑战第27天】在这个数字化飞速发展的时代,后端技术成为支撑互联网服务的基石。Node.js作为其中的佼佼者,以其非阻塞I/O模型、事件驱动架构和丰富的生态系统,赢得了开发者的青睐。本文将带领读者深入理解Node.js的核心概念,通过实际案例分析其应用模式,并探讨如何利用Node.js构建高效、可扩展的后端服务。无论你是初学者还是有经验的开发者,都能在这篇文章中找到提升你的Node.js技能的灵感和知识。
|
3月前
|
Web App开发 JavaScript 中间件
构建高效后端服务:Node.js与Express框架的深度整合
【8月更文挑战第27天】 在现代Web开发中,后端服务的高效性至关重要。本文深入探讨了如何利用Node.js的非阻塞I/O特性和Express框架的简洁性来打造高性能的后端服务。我们将通过具体案例,展示如何在不牺牲代码可读性和可维护性的前提下,实现高效的请求处理和服务端逻辑。文章旨在为开发者提供一个清晰的指导,帮助他们在构建后端服务时做出更明智的技术选择。
|
3月前
|
存储 缓存 JavaScript
构建高效后端服务:Node.js与Express框架的实战应用
【8月更文挑战第2天】在数字化时代的浪潮中,后端服务的构建成为了软件开发的核心。本文将深入探讨如何利用Node.js和Express框架搭建一个高效、可扩展的后端服务。我们将通过实际代码示例,展示从零开始创建一个RESTful API的全过程,包括路由设置、中间件使用以及数据库连接等关键步骤。此外,文章还将触及性能优化和安全性考量,旨在为读者提供一套完整的后端开发解决方案。让我们一同走进Node.js和Express的世界,探索它们如何助力现代Web应用的开发。