华为云技术分享解密如何使用昇腾AI计算解决方案构建业务引擎

Posted huaweiyun

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了华为云技术分享解密如何使用昇腾AI计算解决方案构建业务引擎相关的知识,希望对你有一定的参考价值。

摘要:昇腾AI计算解决方案以极致算力,端边云融合、全栈创新,开放生态的硬核实力。用户可以使用标准的Matrix接口实现业务引擎,对外释放昇腾AI加速能力。

从卷积神经网络中的矩阵乘法(GEMM)说起

说起AI业务,就不得不提最经典的AlexNet,AlexNet模型于2012年提出,其被认为是计算机视觉领域最有影响力的模型之一。AlexNet网络主要包含八层,前五层是卷积层,最后三层是全连接层。 配合pooling及norm运算,以下列出所有卷积层和全连接层的参数规模以及每层的浮点计算量,从图中可以看出AlexNet网络的参数规模达到了6千万量级,计算量达到720MFlops。通过在横向比较几个经典的分类网络,参数规模以及计算量都是巨大的。那么从计算量的角度来看计算中99%以上都是卷积运算,本质都是矩阵运算。

技术图片

在如此级别的规模参数及计算量下,矩阵运算如何加速,成为了视觉计算领域亟需解决的问题。举例:一个典型的16*16的两个矩阵乘运算,在不同硬件上是如何进行计算的?

在CPU中矩阵乘需要做3个for循环,每一位依次进行乘加运算,理论上需要16*16*16*2的时钟周期。

GPU中矩阵乘做了相关的优化,GPU是可以直接进行向量的乘加运算,那么上述运算可以拆解为16*16个乘加运算,即需要256个时钟周期。

昇腾处理器提供专门的矩阵乘运算单元,一个时钟周期就可以完成一次矩阵乘运算。其凭借着在AI推理上的优异性能以及超低功耗,被应用于昇腾AI计算解决方案。

昇腾AI计算解决方案,力算云上新视界

昇腾AI计算解决方案以极致算力,端边云融合、全栈创新,开放生态的硬核实力,助力行业客户在图片分类、目标检测、人体检测、人脸识别、车辆检测等AI 视觉类计算领域取得亮眼的成绩。

技术图片

在IAAS层,昇腾AI计算解决方案可提供昇腾Ai推理实例——包括Ai1,KAi1,及可用于Ai训练的裸机实例KAt1。

在算子层,昇腾AI计算解决方案可支持主流框架TensorFlow与Caffe的算子,以及自定义算子的能力。基于算子层还提供Matrix标准化接口,用户可以通过基于Matrix标准化接口构建昇腾业务引擎。

同时,用户还可以使用华为昇腾Serving,对外提供RestFull API或gRPC请求,轻松解耦业务。上层再配合AI容器服务,轻松实现弹性伸缩,大大缩短业务部署周期。

如何用Matrix接口实现业务引擎

用户可以使用标准的Matrix接口实现业务引擎,通过SDK方式对外释放昇腾AI加速能力。

Matrix为通用业务流程执行引擎,运行于操作系统之上,业务应用之下。可以屏蔽操作系统差异,为应用提供统一的标准化接口,包括流程编排接口(支持C/C++语言、Python语言)和模型管家接口(支持C++语言)。

对于一个典型的业务流,通常包含数据读取,数据的预处理(图片的解码,前处理),模型推理,数据后处理等过程。

那么在Matrix框架中,可以把上述每个过程抽象为一个engine,engine就是特定功能的计算引擎。若干engine构成Graph,Graph负责对engine进行管理。Matrix是一个通用的业务流程执行引擎,能够管理Graph的生成,执行以及销毁。

Matrix计算流程

关于Matrix的计算流程,我们从创建流程、执行流程、销毁流程展开来看。

创建流程,如红色箭头所示:

根据Graph配置创建Graph对象。

上传离线模型文件和配置文件到Device侧。

初始化engine,推理Engine通过离线模型管家(AIModelManager)的Init接口加载模型。

执行流程,如灰色箭头所示:

输入数据

预处理Engine调用dvpp的api接口,进行数据预处理,例如对视频/图像进行编解码、抠图、缩放。

推理Engine调用离线模型管家(AIModelManager)的Process接口进行推理计算。

推理Engine调用Matrix提供的SendData接口将推理结果返回给DestEngine。DestEngine通过回调函数将推理结果返回给APP。

销毁流程,如蓝色箭头所示:

结束程序,销毁Graph对象。

技术图片

Matrix数据流向和调用流程的双BUFF加成

数据流“0”拷贝

我们可以看到,在Matrix框架中数据流的传输性能是至关重要的。

在框架中单独提供了一套内存分配和释放接口,包括HIAI_DMalloc/HIAI_DFree、 HIAI_DVPP_DMalloc/HIAI_DVPP_DFree,支持C/C++语言。

其中,

HIAI_DMalloc/HIAI_DFree接口主要用于申请内存,再配合SendData接口从Host侧搬运数据到Device侧;

HIAI_DVPP_DMalloc/HIAI_DVPP_DFree接口主要用于申请Device侧DVPP使用的内存。

通过调用HIAI_DMalloc/HIAI_DFree、 HIAI_DVPP_DMalloc/HIAI_DVPP_DFree接口申请内存,能够尽量少拷贝,减少流程处理时间。

 

HIAI_Dmalloc在跨侧传输以及模型推理阶段,性能最优,主要优势体现在:

申请的内存是可以用于数据搬运对的,这样可以避免Matrix与数据传输模块间的数据拷贝。

申请的内存可以直接使能模型推理零拷贝机制,减少数据拷贝时间。

HIAI_DVPP_Dmalloc接口体现在:

申请的内存可以给DVPP使用,同时可以在DVPP使用完后透传给模型推理时使用。

如果不需要做模型推理,申请的内存中的数据可以直接回传给Host侧。

技术图片

对用户友好的Host-Device的数据传输

在Host-Device间数据传输情况下,用HIAI_REGISTER_SERIALIZE_FUNC对自定义数据类型进行序列化/反序列化,可以实现高性能数据传输,节省传输时间。

Matrix通过“控制信息+数据信息”的形式描述要传输的数据,控制信息指用户自定义的数据类型,数据信息指需要传输的数据内容。为保证Host和Device之间的数据传输,Matrix提供如下机制:

在传输数据前,用户可调用HIAI_REGISTER_SERIALIZE_FUNC宏注册用户自定义数据类型、用户自定义序列化函数、用户自定义反序列化函数。

用户在本端调用SendData接口发送数据后,Matrix会做如下处理,处理流程如下:

调用用户自定义的序列化函数对控制信息序列化,将序列化后的控制信息放入内存(ctrlBuf)。

通过DMA(Direct Memory Access)映射将控制信息拷贝一份存放到对端的内存中,并保持本端与对端之间控制信息的映射关系。 指向数据信息的内存(dataBuf)指针已通过SendData接口的入参传入,dataBuf是由用户调用HIAI_DMalloc/HIAI_DVPP_DMalloc接口申请的,申请该内存后系统将本端的数据信息通过DMA映射拷贝一份存放到对端的内存中,并保持本端与对端之间数据信息的映射关系。

拼装消息发送给对端,主要将ctrlBuf的地址及大小、dataBuf的地址及大小发送到对端。

对端收到消息后,Matrix会调用用户自定义的反序列化函数解析对端已获取到的控制信息和数据信息,并将解析后的数据发送给对应的接收Engine进行处理。

对端解析数据后,控制信息已使用完成,因此可以释放掉存放控制信息的内存(ctrlBuf),但由于存放控制消息的内存是在本端申请的,因此对端需要给本端发送释放ctrlBuf的消息。

本端收到消息后,释放ctrlBuf。

Engine在收到数据并完成所有处理后,便可以释放dataBuf了,但由于Matrix并不知道用户何时会使用完dataBuf,因此需要用户在实现反序列化函数时,dataBuf以智能指针返回并绑定析构器hiai::Graph::ReleaseDataBuffer。当智能指针结束生命周期析构时,便会自动调用析构器给本端发送释放dataBuf内存消息。

本端收到消息后,释放dataBuf。

技术图片

以上,我们详细介绍了如何使用Matrix接口构建业务引擎,同时用户还可以集成昇腾Serving对外提供标准RestFull API或者gRPC请求,提供解耦的标准推理接口能力。或者配合AI容器服务,提供弹性伸缩,易于部署的能力,模型热替换的能力。

 

点击关注,第一时间了解华为云新鲜技术~

技术图片

以上是关于华为云技术分享解密如何使用昇腾AI计算解决方案构建业务引擎的主要内容,如果未能解决你的问题,请参考以下文章

华为云昇腾AI计算解决方案正式发布

华为云昇腾AI计算解决方案正式发布

CANN 6.0来了,硬核技术抢先看

基于昇腾计算语言AscendCL开发AI推理应用

基于昇腾计算语言AscendCL开发AI推理应用

用昇腾AI护航“井下安全”