Node.js浅谈
Posted 分享帝
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Node.js浅谈相关的知识,希望对你有一定的参考价值。
Node.js由Ryan Dahl于2009年开发,该平台现在已成为实时 Web 应用开发的独特选择,通过提供高度交互的用户体验来提高 ROI。像下面的企业都用Node.js实现了各自的业务。
简单来说Node.js适合以下场景:
实时性应用,比如在线多人协作工具,网页聊天应用等。
以 I/O 为主的高并发应用,比如为客户端提供 API,读取数据库。
流式应用,比如客户端经常上传文件。
前后端分离。
实际上前两者可以归结为一种,即客户端广泛使用长连接,虽然并发数较高,但其中大部分是空闲连接。
Node.js 也有它的局限性,它并不适合 CPU 密集型的任务,比如人工智能方面的计算,视频、图片的处理等。
当然,以上缺点不是信口开河,或者死记硬背,更不是人云亦云,需要我们对 Node.js 的原理有一定的了解,才能做出正确的判断。
基础概念
在介绍 Node.js 之前,理清楚一些基本概念有助于更深入的理解 Node.js 。
并发
与客户端不同,服务端开发者非常关心的一项数据是并发数,也就是这台服务器最多能支持多少个客户端的并发请求。早年的 C10K 问题就是讨论如何利用单台服务器支持 10K 并发数。当然随着软硬件性能的提高,目前 C10K 已经不再是问题,我们开始尝试解决 C10M 问题,即单台服务器如何处理百万级的并发。
在 C10K 提出时,我们还在使用 Apache 服务器,它的工作原理是每当有一个网络请求到达,就 fork 出一个子进程并在子进程中运行 php 脚本。执行完脚本后再把结果发回客户端。
这样可以确保不同进程之间互不干扰,即使一个进程出问题也不影响整个服务器,但是缺点也很明显:进程是一个比较重的概念,拥有自己的堆和栈,占用内存较多,一台服务器能运行的进程数量有上限,大约也就在几千左右。
虽然 Apache 后来使用了 FastCGI,但本质上只是一个进程池,它减少了创建进程的开销,但无法有效提高并发数。
Java 的 Servlet 使用了线程池,即每个 Servlet 运行在一个线程上。线程虽然比进程轻量,但也是相对的。有人测试过,每个线程独享的栈的大小是 1M,依然不够高效。除此以外,多线程编程会带来各种麻烦,这一点想必程序员们都深有体会。
如果不使用线程,还有两种解决方案,分别是使用协程(coroutine)和非阻塞 I/O。协程比线程更加轻量,多个协程可以运行在同一个线程中,并由程序员自己负责调度,这种技术在 Go 语言中被广泛使用。而非阻塞 I/O 则被 Node.js 用来处理高并发的场景。
非阻塞 I/O
这里所说的 I/O 可以分为两种: 网络 I/O 和文件 I/O,实际上两者高度类似。 I/O 可以分为两个步骤,首先把文件(网络)中的内容拷贝到缓冲区,这个缓冲区位于操作系统独占的内存区域中。随后再把缓冲区中的内容拷贝到用户程序的内存区域中。
对于阻塞 I/O 来说,从发起读请求,到缓冲区就绪,再到用户进程获取数据,这两个步骤都是阻塞的。
非阻塞 I/O 实际上是向内核轮询,缓冲区是否就绪,如果没有则继续执行其他操作。当缓冲区就绪时,讲缓冲区内容拷贝到用户进程,这一步实际上还是阻塞的。
I/O 多路复用技术是指利用单个线程处理多个网络 I/O,我们常说的 select
、epoll
就是用来轮询所有 socket 的函数。比如 Apache 采用了前者,而 nginx 和 Node.js 使用了后者,区别在于后者效率更高。由于 I/O 多路复用实际上还是单线程的轮询,因此它也是一种非阻塞 I/O 的方案。
异步 I/O 是最理想的 I/O 模型,然而可惜的是真正的异步 I/O 并不存在。 Linux 上的 AIO 通过信号和回调来传递数据,但是存在缺陷。现有的 libeio 以及 Windows 上的 IOCP,本质上都是利用线程池与阻塞 I/O 来模拟异步 I/O。
Node.js 线程模型
很多文章都提到 Node.js 是单线程的,然而这样的说法并不严谨,甚至可以说很不负责,因为我们至少会想到以下几个问题:
Node.js 在一个线程中如何处理并发请求?
Node.js 在一个线程中如何进行文件的异步 I/O?
Node.js 如何重复利用服务器上的多个 CPU 的处理能力?
网络 I/O
Node.js 确实可以在单线程中处理大量的并发请求,但这需要一定的编程技巧。我们回顾一下文章开头的代码,执行了 app.js 文件后控制台立刻就会有输出,而在我们访问网页时才会看到 “Hello,World”。
这是因为 Node.js 是事件驱动的,也就是说只有网络请求这一事件发生时,它的回调函数才会执行。当有多个请求到来时,他们会排成一个队列,依次等待执行。
这看上去理所当然,然而如果没有深刻认识到 Node.js 运行在单线程上,而且回调函数是同步执行,同时还按照传统的模式来开发程序,就会导致严重的问题。举个简单的例子,这里的 “Hello World” 字符串可能是其他某个模块的运行结果。假设 “Hello World” 的生成非常耗时,就会阻塞当前网络请求的回调,导致下一次网络请求也无法被响应。
解决方法很简单,采用异步回调机制即可。我们可以把用来产生输出结果的 response
参数传递给其他模块,并用异步的方式生成输出结果,最后在回调函数中执行真正的输出。这样的好处是,http.createServer
的回调函数不会阻塞,因此不会出现请求无响应的情况。
举个例子,我们改造一下 server 的入口,实际上如果要自己完成路由,大约也是这个思路:
1 2 3 4 5 |
var http = require('http'); var output = require('./string') // 一个第三方模块 http.createServer(function (request, response) { output.output(response); // 调用第三方模块进行输出 }).listen(8888); |
第三方模块:
1 2 3 4 5 6 7 8 9 10 11 |
function sleep(milliSeconds) { // 模拟卡顿 var startTime = new Date().getTime(); while (new Date().getTime() < startTime + milliSeconds); }
function outputString(response) { sleep(10000); // 阻塞 10s response.end('Hello World\n'); // 先执行耗时操作,再输出 }
exports.output = outputString; |
总之,在利用 Node.js 编程时,任何耗时操作一定要使用异步来完成,避免阻塞当前函数。因为你在为客户端提供服务,而所有代码总是单线程、顺序执行。
如果初学者看到这里还是无法理解,建议阅读 “Nodejs 入门” 这本书,或者阅读下文关于事件循环的章节。
文件 I/O
我在之前的文章中也强调过,异步是为了优化体验,避免卡顿。而真正节省处理时间,利用 CPU 多核性能,还是要靠多线程并行处理。
实际上 Node.js 在底层维护了一个线程池。之前在基础概念部分也提到过,不存在真正的异步文件 I/O,通常是通过线程池来模拟。线程池中默认有四个线程,用来进行文件 I/O。
需要注意的是,我们无法直接操作底层的线程池,实际上也不需要关心它们的存在。线程池的作用仅仅是完成 I/O 操作,而非用来执行 CPU 密集型的操作,比如图像、视频处理,大规模计算等。
如果有少量 CPU 密集型的任务需要处理,我们可以启动多个 Node.js 进程并利用 IPC 机制进行进程间通讯,或者调用外部的 C++/Java 程序。如果有大量 CPU 密集型任务,那只能说明选择 Node.js 是一个错误的决定。
榨干 CPU
到目前为止,我们知道了 Node.js 采用 I/O 多路复用技术,利用单线程处理网络 I/O,利用线程池和少量线程模拟异步文件 I/O。那在一个 32 核 CPU 上,Node.js 的单线程是否显得鸡肋呢?
答案是否定的,我们可以启动多个 Node.js 进程。不同于上一节的是,进程之间不需要通讯,它们各自监听一个端口,同时在最外层利用 Nginx 做负载均衡。
Nginx 负载均衡非常容易实现,只要编辑配置文件即可:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
http{ upstream sampleapp { // 可选配置项,如 least_conn,ip_hash server 127.0.0.1:3000; server 127.0.0.1:3001; // ... 监听更多端口 } .... server{ listen 80; ... location / { proxy_pass http://sampleapp; // 监听 80 端口,然后转发 } } |
默认的负载均衡规则是把网络请求依次分配到不同的端口,我们可以用 least_conn
标志把网络请求转发到连接数最少的 Node.js 进程,也可以用 ip_hash
保证同一个 ip 的请求一定由同一个 Node.js 进程处理。
多个 Node.js 进程可以充分发挥多核 CPU 的处理能力,也具有很强大的拓展能力。
事件循环
在 Node.js 中存在一个事件循环(Event Loop),有过 ios 开发经验的同学可能会觉得眼熟。没错,它和 Runloop 在一定程度上是类似的。
一次完整的 Event Loop 也可以分为多个阶段(phase),依次是 poll、check、close callbacks、timers、I/O callbacks 、Idle。
由于 Node.js 是事件驱动的,每个事件的回调函数会被注册到 Event Loop 的不同阶段。比如fs.readFile
的回调函数被添加到 I/O callbacks,setImmediate
的回调被添加到下一次 Loop 的 poll 阶段结束后,process.nextTick()
的回调被添加到当前 phase 结束后,下一个 phase 开始前。
不同异步方法的回调会在不同的 phase 被执行,掌握这一点很重要,否则就会因为调用顺序问题产生逻辑错误。
Event Loop 不断的循环,每一个阶段内都会同步执行所有在该阶段注册的回调函数。这也正是为什么我在网络 I/O 部分提到,不要在回调函数中调用阻塞方法,总是用异步的思想来进行耗时操作。一个耗时太久的回调函数可能会让 Event Loop 卡在某个阶段很久,新来的网络请求就无法被及时响应。
由于本文的目的是对 Node.js 有一个初步的,全面的认识。就不详细介绍 Event Loop 的每个阶段了,具体细节可以查看官方文档。
可以看出 Event Loop 还是比较偏底层的,为了方便的使用事件驱动的思想,Node.js 封装了EventEmitter
这个类:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 |
var EventEmitter = require('events'); var util = require('util');
function MyThing() { EventEmitter.call(this);
setImmediate(function (self) { self.emit('thing1'); }, this); process.nextTick(function (self) { self.emit('thing2'); }, this); } util.inherits(MyThing, EventEmitter);
var mt = new MyThing();
mt.on('thing1', function onThing1() { console.log("Thing1 emitted"); });
mt.on('thing2', function onThing1() { console.log("Thing2 emitted"); }); |
根据输出结果可知,self.emit(thing2)
虽然后定义,但先被执行,这也完全符合 Event Loop 的调用规则。
Node.js 中很多模块都继承自 EventEmitter,比如下一节中提到的 fs.readStream
,它用来创建一个可读文件流, 打开文件、读取数据、读取完成时都会抛出相应的事件。
数据流
使用数据流的好处很明显,生活中也有真实写照。举个例子,老师布置了暑假作业,如果学生每天都做一点(作业流),就可以比较轻松的完成任务。如果积压在一起,到了最后一天,面对堆成小山的作业本,就会感到力不从心。
Server 开发也是这样,假设用户上传 1G 文件,或者读取本地 1G 的文件。如果没有数据流的概念,我们需要开辟 1G 大小的缓冲区,然后在缓冲区满后一次性集中处理。
如果是采用数据流的方式,我们可以定义很小的一块缓冲区,比如大小是 1Mb。当缓冲区满后就执行回调函数,对这一小块数据进行处理,从而避免出现积压。
实际上 request
和 fs
模块的文件读取都是一个可读数据流:
1 2 3 4 5 6 7 8 9 10 11 12 13 |
var fs = require('fs'); var readableStream = fs.createReadStream('file.txt'); var data = '';
readableStream.setEncoding('utf8'); // 每次缓冲区满,处理一小块数据 chunk readableStream.on('data', function(chunk) { data+=chunk; }); // 文件流全部读取完成 readableStream.on('end', function() { console.log(data); }); |
利用管道技术,可以把一个流中的内容写入到另一个流中:
1 2 3 4 5 |
var fs = require('fs'); var readableStream = fs.createReadStream('file1.txt'); var writableStream = fs.createWriteStream('file2.txt');
readableStream.pipe(writableStream); |
不同的流还可以串联(Chain)起来,比如读取一个压缩文件,一边读取一边解压,并把解压内容写入到文件中:
1 2 3 4 5 6 |
var fs = require('fs'); var zlib = require('zlib');
fs.createReadStream('input.txt.gz') .pipe(zlib.createGunzip()) .pipe(fs.createWriteStream('output.txt')); |
Node.js 提供了非常简洁的数据流操作,以上就是简单的使用介绍。
总结
对于高并发的长连接,事件驱动模型比线程轻量得多,多个 Node.js 进程配合负载均衡可以方便的进行拓展。因此 Node.js 非常适合为 I/O 密集型应用提供服务。但这种方式的缺陷就是不擅长处理 CPU 密集型任务。
Node.js 中通常以流的方式来描述数据,也对此提供了很好的封装。
Node.js 使用前端语言(javascript) 开发,同时也是一个后端服务器,因此为前后端分离提供了一个良好的思路。我会在下一篇文章中对此进行分析。
内容版权归原作者所有
想要前端资料的,可以扫描下方微信群二维码:
想了解更多前端开发资讯
长按识别下方二维码关注订阅吧
注:本文图片及内容采集来自于网络,如有侵权,请立马联系删除
往期回顾
欢迎在下方留言评论哦
以上是关于Node.js浅谈的主要内容,如果未能解决你的问题,请参考以下文章