pyecharts可以实现百万级别数据刷新吗

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了pyecharts可以实现百万级别数据刷新吗相关的知识,希望对你有一定的参考价值。

参考技术A 可以。
使用pyecharts进行数据可视化。可以在pycharm软件里进行下载pyecharts库包,可以查看pyecharts的中文官网介绍查看一般的使用方法。

写个百万级别full-stack小型协程库——原理介绍

  仿制云风的协程库的接口设计,我花了一个下午加晚上的时间重构了之前写的协程库,提供的接口现在和云风大大的协程接口一模一样,都是仿制lua的非对称协程。我们依旧没有用ucontext.h组件(因为ucontext.h组件在osX下已经deprecated了,如果你加入sys/ucontext.h头文件,发现某些小型C协程库还能运行,纯属巧合,因为官方已经不维护这个组件了,以后很可能出错),我们的协程库可以运行在兼容X86平台的操作系统上,各种unix-like操作系统,windows操作系统都可以,不过得用gcc或者clang或者与之兼容的mingw编译工具编译出32位的程序运行,不能用vs或者vc++系列,因为我们用了gasm内联汇编格式,当然你可以稍微改下几行汇编就能移植到vs或者vc++版本。在多线程环境下运行协程时,不同线程不能共享协程组,也就是说任意两个协程,若它们属于不同的线程,那么它们得属于不同的协程组。这是基本编程准则。比如想在POSIX多线程接口里头用我们的协程库时候,你可以这么用:

 1 #include <all needed>
 2  
 3 hello(schedular *s)
 4 {
 5    coroutine_new(s, otherfunc, args); /* 在s协程组里头创建一个协程, 这个s可能是S或S1等等 */
 6    ... do something
 7 }
 8  
 9 foo(...)
10 {
11        schedular *S1 =coroutine_open(); /* 分配一个协程组S1,这个只能属于线程tid */
12        int co = coroutine_new(S1, hello, S1); /* 创建一个协程 */
13        ... do something
14        coroutine_resume(S1,co); /* 调用本地协程组里头的co协程 */
15        ... do something
16        coroutine_close(&S1);   /* 释放S1协程组 */
17 }
18  
19 main{
20     schedular *S =coroutine_open();   /* 分配一个协程组S,这个只能属于主线程 */
21     pthread_create(tid, ..., foo, ...); /* 创建Posix线程 */
22     int co = coroutine_new(S, hello, S); /* 创建一个协程 */
23     ... do something
24     coroutine_resume(S,co); /* 调用本地协程组里头的co协程 */
25     ... do something
26     coroutine_close(&S); /* 释放S协程组 */
27    pthread_join(tid, ...); /* 等待并回收线程资源 */
28 }

  如果要想不同线程间的协程通讯,得用操作系统各自的API,比如用共享内存方式来实现,我们没有实现类似goroutine的channel。协程库为共享栈模式,一个协程组可以容纳最多一百万个协程,每个协程共用128Kbytes栈空间,我用top命令监测了一下运行一百万个协程的测试程序,此时该测试程序内存占用峰值为280M左右,可以推算每个协程内存占用峰值为280bytes左右。可以推断,如果运行一千万个协程,我们至少需要10个协程组,每个协程组280M,一共2800M = 2.7G左右 = 4G总理论空间 - 1G内核空间,所以我们的协程库所能支持的最大协程数是1000万,这是理论上限。用gprof测试程序性能得知,2999997次协程切换共用0.39秒,每次切换时间在130ns左右。最重要的是,我们的协程库所有的源码加起来大概只有400行左右,这还包括了微量的注释和头文件。如果能够移植到X64版本,那么我们的协程库可以轻松支持千万数量的协程,可以在实际开发中使用,不再是单单只有教学意义的小玩意了。可惜的是在unix like的各种平台下,作为唯一的异步非阻塞IO组件,linux kernal实现的aio组件并不是那么成熟(可能要烂尾了),而且glibc中用线程+信号模拟的用户态aio组件也是有很多bug存在。异步操作与协程的结合果然还是在语言层面(做编译器前端)实现更好,而非在库上实现。

项目GitHub链接:https://github.com/Yuandong-Chen/coroutine/tree/ezco.v.0.0.1 

 

后记:

  最近用setjmp.h组件,重构了项目,删去了汇编代码,把项目移植到了X64-macosx-clang版本(只兼容intel X64的处理器,osX操作系统以及Clang编译器,不兼容其他任何变化,包括Linux,GCC,X86等等),可以支持上亿个协程(思考下?为何?)。项目放在上面GitHub链接里头的默认版本内。到此为止,我们的协程完成度近似libconcurrency库。如何移植到X64-linux-gcc版本是一个问题,因为glibc里头,我们无法在jmp_buf数组中通过偏移量取出rip逻辑寄存器的取值。所以为了达到可移植性,我们还是得用汇编写一个自己的setjmp/longjmp函数,其实很多协程库就是自己重写了setjmp/longjmp以满足兼容性。这样也有个坏处,那就是我们得写大量的汇编,对不同的C编译器,不同的操作系统,不同的CPU都得写一个对应的汇编版本,当然,可以通过内联汇编的方式在一定程度上减轻一点点工作量。这种兼容性的体力活我就不去干了。

  这里给出为何能支持上亿协程的答案:很简单,我们以1000万个协程占4G空间估计,那么64位机如果有128G内存的话,1000万*128/4 = 3亿左右的协程并发。当然,我想没人会用3亿协程并发,因为即便是8核16线程,负载为300000000/(16) = 1.8亿协程/线程,除非你有超级计算机,那么才可以做到几百协程/线程。

进一步需要做的:

1)彻底放弃共享栈,每个协程重新拥有自己独立的栈空间。因为x64下的虚拟内存足够大了,共享栈带来的优势太小,我们根本不需要几亿个协程并发,但是我们需要他们执行的足够快。

2)放弃lua的resume-yield协程模型,改用erlang的spawn模型,从而能够利用多核带来的并行执行的优势。

3)添加协程间的channel机制(一种消息传递机制)。

总的说来,我们相当于要把erlang的轻量级进程这部分做成C语言库。

 

以上是关于pyecharts可以实现百万级别数据刷新吗的主要内容,如果未能解决你的问题,请参考以下文章

百万级别或以上的数据如何删除

python是不可视化工具吗

一个事务中多条查询sql是取最新数据吗

利用RabbitMQMySQL实现超大用户级别的消息在/离线收发

转: 利用RabbitMQMySQL实现超大用户级别的消息在/离线收发

只想用pyecharts的0.5版本以后会淘汰吗