nodejs里有大的数据处理怎么办?
用nodejs做了一个excel导入功能,但是用户导入的数据有多有少,有人导入了几十万行的excel,node处理慢了点就造成了阻塞。有优化方案吗?我服务器是单核的。。。
28 回复
@i5ting 呵呵,并发量少或者文件比较小可以用stream,否则到达一定的并发量或者文件比较大,就会出现lz所看到的阻塞,这就是node.js的本质,不管如何优化,也就是量变而已,根本不会发生质变
楼主描述的场景是:上传大文件,伴随高并发的应用场景。 对这种情况,真正的瓶颈在于单核的单节点服务器已接近临界值了,建议楼主提升服务器性能,采用服务节点集群方式处理。
@flyingcodes 感谢真正的后端工程师 莅临 node 社区,大家热烈欢迎一下
stream 不错~ https://github.com/substack/stream-handbook
@highsea 不用酸我,我前端,伪后端,后端,数据持久层都做,我知道在哪些地方适合用哪些技术,而不是一味只用一种技术。每种技术都有优点和缺点,我只在特定场合选择最适合的