用于 TB 级数据的大规模体绘制和可视化库
Posted
技术标签:
【中文标题】用于 TB 级数据的大规模体绘制和可视化库【英文标题】:Large-scale volume rendering and visualization libraries for terabyte-size data 【发布时间】:2017-10-19 14:39:33 【问题描述】:我想可视化跨越几 GB 到几 TB 的 3D 数据量。一种解决方案是自己动手,但这可能需要一些时间。为避免这种情况,我目前正在探索当前可用的解决方案。我研究得越多,我发现的软件就越多。一些例子包括ParaView/VTK
、OSPRay
、Embree
、Splotch
、NVIDIA GVDB/OptiX
等。
其中一些软件为可视化和数据操作提供了完整的解决方案(例如,ParaView/VTK
)。其他人主要关注高性能渲染(例如,Embree
)。其他人提供用于渲染的低级 API(例如,GVDB/OptiX
)。有些针对特定硬件进行了优化(例如,Embree
用于 Intel 硬件,GVDB/Optix
用于 NVIDIA GPU)。其他包括分布式渲染的基础设施(例如,ParaView/VTK
),它允许他们声称他们可以渲染数 TB 大小的数据集,而其他人则将此功能留给用户。可以说,使用一些巧妙的 LOD 和核外算法,也可以在单台机器上执行数 TB 大小的数据集体积渲染,但让我们把这个留到另一个讨论。最后,还有大量来自大学研究项目和学术界的软件,它们旨在解决特定问题并且不再维护。
我想知道这里是否有人有使用此类软件的经验,并且可以给我一些关于哪些软件/库值得试验的指示或建议。我的理想要求如下:
以交互式帧速率(假设 > 10 FPS)对高达几 TB 的数据集执行体积渲染/光线行进。 利用不同的并行架构(CPU、GPU、多节点) 实施/支持详细程度算法。 能够在渲染场景中添加小部件。例如,轴箭头、剪切平面等。 采用提供公共 API 以供使用的库的形式。理想情况下使用 Python,但我想我自己围绕 C/C++ API 制作 Python 包装器是非常可行的。 它们得到积极维护并拥有适当的文档。我不一定要寻找包含以上所有内容的软件库,但是,越多越好! :)
提前谢谢你。
【问题讨论】:
【参考方案1】:AstrOne,
这里是 Ingo,来自 OSPRay 团队 ;-)
“Terabytes”听起来很有趣...。很高兴查看您希望使用 OSPRay 渲染的数据类型...给我发电子邮件!
【讨论】:
欢迎使用 SO Ingo,抛开关于在此处公开您的电子邮件地址的讨论,您所要求的通常是放入 cmets 中的那种东西。以上是关于用于 TB 级数据的大规模体绘制和可视化库的主要内容,如果未能解决你的问题,请参考以下文章
LightningChart 体数据带你领略体数据渲染的前世今生