用于 TB 级数据的大规模体绘制和可视化库

Posted

技术标签:

【中文标题】用于 TB 级数据的大规模体绘制和可视化库【英文标题】:Large-scale volume rendering and visualization libraries for terabyte-size data 【发布时间】:2017-10-19 14:39:33 【问题描述】:

我想可视化跨越几 GB 到几 TB 的 3D 数据量。一种解决方案是自己动手,但这可能需要一些时间。为避免这种情况,我目前正在探索当前可用的解决方案。我研究得越多,我发现的软件就越多。一些例子包括ParaView/VTKOSPRayEmbreeSplotchNVIDIA GVDB/OptiX等。

其中一些软件为可视化和数据操作提供了完整的解决方案(例如,ParaView/VTK)。其他人主要关注高性能渲染(例如,Embree)。其他人提供用于渲染的低级 API(例如,GVDB/OptiX)。有些针对特定硬件进行了优化(例如,Embree 用于 Intel 硬件,GVDB/Optix 用于 NVIDIA GPU)。其他包括分布式渲染的基础设施(例如,ParaView/VTK),它允许他们声称他们可以渲染数 TB 大小的数据集,而其他人则将此功能留给用户。可以说,使用一些巧妙的 LOD 和核外算法,也可以在单台机器上执行数 TB 大小的数据集体积渲染,但让我们把这个留到另一个讨论。最后,还有大量来自大学研究项目和学术界的软件,它们旨在解决特定问题并且不再维护。

我想知道这里是否有人有使用此类软件的经验,并且可以给我一些关于哪些软件/库值得试验的指示或建议。我的理想要求如下:

以交互式帧速率(假设 > 10 FPS)对高达几 TB 的数据集执行体积渲染/光线行进。 利用不同的并行架构(CPU、GPU、多节点) 实施/支持详细程度算法。 能够在渲染场景中添加小部件。例如,轴箭头、剪切平面等。 采用提供公共 API 以供使用的库的形式。理想情况下使用 Python,但我想我自己围绕 C/C++ API 制作 Python 包装器是非常可行的。 它们得到积极维护并拥有适当的文档。

我不一定要寻找包含以上所有内容的软件库,但是,越多越好! :)

提前谢谢你。

【问题讨论】:

【参考方案1】:

AstrOne,

这里是 Ingo,来自 OSPRay 团队 ;-)

“Terabytes”听起来很有趣...。很高兴查看您希望使用 OSPRay 渲染的数据类型...给我发电子邮件!

【讨论】:

欢迎使用 SO Ingo,抛开关于在此处公开您的电子邮件地址的讨论,您所要求的通常是放入 cmets 中的那种东西。

以上是关于用于 TB 级数据的大规模体绘制和可视化库的主要内容,如果未能解决你的问题,请参考以下文章

数据可视化之数据分析与展示

Greenplum 中的 TB 级数据库

LightningChart 体数据带你领略体数据渲染的前世今生

Python 005- 使用Pyecharts来绘制各种各样的图形

Matplotlib数据可视化相关知识及画图例子展示

Matplotlib数据可视化相关知识及画图例子展示