为什么这个numba.cuda查找表实现失败?
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了为什么这个numba.cuda查找表实现失败?相关的知识,希望对你有一定的参考价值。
我正在尝试实现一个转换,它在某个阶段有一个<1K的查找表。在我看来,它似乎不应该对现代显卡造成问题。
但是下面的代码失败并出现未知错误:
from numba import cuda, vectorize
import numpy as np
tmp = np.random.uniform( 0, 100, 1000000 ).astype(np.int16)
tmp_device = cuda.to_device( tmp )
lut = np.arange(100).astype(np.float32) * 2.5
lut_device = cuda.to_device(lut)
@cuda.jit(device=True)
def lookup(x):
return lut[x]
@vectorize("float32(int16)", target="cuda")
def test_lookup(x):
return lookup(x)
test_lookup(tmp_device).copy_to_host() # <-- fails with cuMemAlloc returning UNKNOWN_CUDA_ERROR
我在做什么反对numba.cuda的精神?
即使用以下简化代码替换lookup
也会导致相同的错误:
@cuda.jit(device=True)
def lookup(x):
return x + lut[1]
一旦发生此错误,我基本上不再能够使用cuda上下文了。例如,通过cuda.to_device
分配一个新数组会导致:
numba.cuda.cudadrv.driver.CudaAPIError: [719] Call to cuMemAlloc results in UNKNOWN_CUDA_ERROR
运行于:4.9.0-5-amd64#1 SMP Debian 4.9.65-3 + deb9u2(2018-01-04)
驱动程序版本:390.25
numba:0.33.0
通过以粗体修改部分来修复上述代码:
@cuda.jit(device=True)
def lookup(x):
lut_device = cuda.const.array_like(lut)
return lut_device[x]
我运行了多种代码变体,包括简单地从这个内核中触摸查找表,但不使用它的输出。这与@talonmies断言UNKNOWN_CUDA_ERROR通常伴随无效指令一起发生,我认为可能存在导致问题的共享内存约束。
上面的代码使整个过程工作。但是,我仍然不明白为什么要以深刻的方式。
如果有人知道并了解原因,请随时为此答案做出贡献。
以上是关于为什么这个numba.cuda查找表实现失败?的主要内容,如果未能解决你的问题,请参考以下文章
为啥同时使用 numba.cuda 和 CuPy 从 GPU 传输数据这么慢?
可以在用户创建的 numba CUDA 设备函数中调用 numba.cuda.random 设备函数吗?
什么是 numba.cuda.local.array() 的有效替代方案,它们不像通过 to_device() 传递许多参数那么麻烦?
使用 Numba 进行矩阵乘法时出现 CUDA 内存不足错误