int8量化和tvm实现

Posted 爆米花好美啊

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了int8量化和tvm实现相关的知识,希望对你有一定的参考价值。

量化主要有两种方案

  • 直接训练量化模型如Deepcompression,Binary-Net,Tenary-Net,Dorefa-Net
  • 对训练好的float模型(以float32为例)直接进行量化(以int8为例),这边博客主要讲这个
    参考NIVIDIA 量化官方文档

int8量化原理

将已有的float32型的数据改成A = scale_A * QA + bias_A,B类似,NVIDIA实验证明可以去掉bias,即A = scale_A * QA
也即是QA(量化后的A) = A / scale_A

有了对应公式A = scale_A * QA,则可以将float32的数据映射到int8,但是由于float32的数据动态范围比int8要大很多,如果数据分布不均匀,极限情况比如如果float32的原始数据都在127的周围,最后量化后都是127了,精度损失严重,而int8其他的数值完全没有用到,没有完全利用int8的数值范围,所以直接最大最小映射不是一个最优方案。

那能不能找到一个threshold,丢掉一部分float32数值,然后能够更加均匀地映射,从而充分地利用到int8的数值范围

Softmax原理讲解中提到
交叉熵= 熵 + KL散度(相对熵)
1)信息熵:编码方案完美时,最短平均编码长度的是多少。
2)交叉熵:用次优编码方式时平均编码长度是多少,即需要多少个bits来表示
平均编码长度 = 最短平均编码长度 + 一个增量
3)相对熵:编码方案不一定完美时,平均编码长度相对于最小值的增加值。(即上面那个增量)
int8编码时所需编码长度 = float32编码时所需编码长度 + int8多需要的编码长度
因此相对熵就是int8float32(次优编码)比float32(最优编码)多出来的编码长度越小越好,所以需要找到一个合适的threshold,使得两者之间的相对熵最小即KL散度
这个KL距离代表了损失的信息

如何寻找一个合适的threshold呢,需要一个校准集合 Calibration Dataset,在校准数据集上运行FP32推理。收集激活的直方图,并生成一组具有不同阈值的8位表示法,并选择具有最少kl散度的表示;kl-散度是在参考分布(即FP32激活)和量化分布之间(即8位量化激活)之间。

TVM实现int8量化

# 从前端load模型,mxnet、onnx等
sym, _ = relay.frontend.from_mxnet(sym, 'data': data_shape)
# 随机生成test的模型参数,如果有已训练好的模型参数可以忽略
sym, params = tvm.relay.testing.create_workload(sym)
# 模型量化
with relay.quantize.qconfig(skip_k_conv=0, round_for_shift=True):
    sym = relay.quantize.quantize(sym, params)
# 模型优化(经过试验,tvm系统默认有一些常用的resnet的卷积优化,注意这个优化是和卷积配置包括输入输出kernel的数量绑定的)
# 如果使用系统已有的卷积优化配置则速度可保证,如果使用一些新奇的卷积结构需要使用auto tuning优化,不然很慢
参考 https://docs.tvm.ai/tutorials/autotvm/tune_relay_cuda.html#auto-tuning-a-convolutional-network-for-nvidia-gpu
# load最优的优化算子,然后编译模型
with autotvm.apply_history_best(log_file):
    print("Compile...")
    with relay.build_config(opt_level=3):
        graph, lib, params = relay.build_module.build(
            net, target=target, params=params)
    # 加载参数并运行
    ctx = tvm.context(str(target), 0)
    module = runtime.create(graph, lib, ctx)
    data_tvm = tvm.nd.array((np.random.uniform(size=input_shape)).astype(dtype))
    module.set_input('data', data_tvm)
    module.set_input(**params)
    # module.set_input(**k:tvm.nd.array(v, ctx) for k, v in params.items())
    module.run()
    # 测试forward时间
    e = module.module.time_evaluator("run", ctx, number=2000, repeat=3)
    t = module(data_tvm).results
    t = np.array(t) * 1000
    print(' (batch=):  ms'.format(name, batch, t.mean()))

tvm的一些代码链接tvm-cuda-int8-benchmark


以上是关于int8量化和tvm实现的主要内容,如果未能解决你的问题,请参考以下文章

TensorRT--INT8量化

利用TensorRT实现INT8量化感知训练QAT

机器学习信息熵和热力学定律中的熵有关系吗?

YOLOV5 INT8 量化对比

自动驾驶中神经网络模型量化技术:INT8还是INT4?

自动驾驶中神经网络模型量化技术:INT8还是INT4?