如何测量设备+OpenCL+GPU中代码的执行时间

Posted

技术标签:

【中文标题】如何测量设备+OpenCL+GPU中代码的执行时间【英文标题】:How to measure execution time of code in device+OpenCL+GPU 【发布时间】:2021-05-25 10:35:47 【问题描述】:

我尝试测量我的代码在 CPU 和 GPU 上的执行时间。 为了测量 CPU 上的时间,我使用了 std::chrono::high_resolution_clock::now() 和 std::chrono::high_resolution_clock::now(), std::chrono::duration_caststd::chrono::nanoseconds(end - 开始) 为了测量 GPU 设备上的时间,我阅读了以下链接: 1-https://github.com/intel/pti-gpu/blob/master/chapters/device_activity_tracing/OpenCL.md 2-https://docs.oneapi.com/versions/latest/dpcpp/iface/event.html 3-https://developer.codeplay.com/products/computecpp/ce/guides/computecpp-profiler/step-by-step-profiler-guide?version=2.2.1 依此类推…… 问题是,我很困惑,我无法理解如何使用分析来测量 GPU 上代码的执行时间。我什至不知道我应该把我的代码放在哪里,我犯了很多错误。 我的代码是:

#include <CL/sycl.hpp>
#include <iostream>
#include <tbb/tbb.h>
#include <tbb/parallel_for.h>
#include <vector>
#include <string>
#include <queue>
#include<tbb/blocked_range.h>
#include <tbb/global_control.h>
#include <chrono>
#include <CL/opencl.h>

using namespace tbb;

template<class Tin, class Tout, class Function>
class Map 
private:
    Function fun;
public:
    Map() 
    Map(Function f):fun(f) 

    std::vector<Tout> operator()(bool use_tbb, std::vector<Tin>& v) 
        std::vector<Tout> r(v.size());
        if(use_tbb) 
            // Start measuring time
            auto begin = std::chrono::high_resolution_clock::now();
            tbb::parallel_for(tbb::blocked_range<Tin>(0, v.size()),
                [&](tbb::blocked_range<Tin> t) 
                for(int index = t.begin(); index < t.end(); ++index) 
                    r[index] = fun(v[index]);
                
            );
            // Stop measuring time and calculate the elapsed time
            auto end = std::chrono::high_resolution_clock::now();
            auto elapsed = std::chrono::duration_cast<std::chrono::nanoseconds>(end - begin);
            printf("Time measured: %.3f seconds.\n", elapsed.count() * 1e-9);
            return r;
         else 
            sycl::queue gpuQueue  sycl::gpu_selector() ;
            sycl::range<1> n_item  v.size() ;
            sycl::buffer<Tin, 1> in_buffer(&v[0], n_item);
            sycl::buffer<Tout, 1> out_buffer(&r[0], n_item);

            //Try To use Profiling to measure the execution time of code on GPU device!
            cl_queue_properties props[3] =  CL_QUEUE_PROPERTIES,
                                             CL_QUEUE_PROFILING_ENABLE, 0 ;
            cl_int status = CL_SUCCESS;
            cl_command_queue queue =clCreateCommandQueueWithProperties(context, device, props, &status);
            assert(status == CL_SUCCESS);
            cl_event event = nullptr;
            status = clEnqueueNDRangeKernel(queue, kernel, dim, nullptr,
                global_size, local_size, 0, nullptr, &event);
            assert(status == CL_SUCESS);
            status = clSetEventCallback(event, CL_COMPLETE, EventNotify, nullptr);
            assert(status == CL_SUCESS);
            void CL_CALLBACK EventNotify(cl_event event,
                cl_int event_status,
                void* user_data) 
                cl_int status = CL_SUCCESS;
                cl_ulong start = 0, end = 0;

                assert(event_status == CL_COMPLETE);

                status = clGetEventProfilingInfo(event, CL_PROFILING_COMMAND_START,
                    sizeof(cl_ulong), &start, nullptr);
                assert(status == CL_SUCCESS);
                status = clGetEventProfilingInfo(event, CL_PROFILING_COMMAND_END,
                    sizeof(cl_ulong), &end, nullptr);
                assert(status == CL_SUCCESS);
            

            gpuQueue.submit([&](sycl::handler& h) 
                //local copy of fun
                auto f = fun;
                sycl::accessor in_accessor(in_buffer, h, sycl::read_only);
                sycl::accessor out_accessor(out_buffer, h, sycl::write_only);
                h.parallel_for(n_item, [=](sycl::id<1> index) 
                    out_accessor[index] = f(in_accessor[index]);
                );
            ).wait();
        
        return r;
    
;

template<class Tin, class Tout, class Function>
Map<Tin, Tout, Function> make_map(Function f) 
    return Map<Tin, Tout, Function>(f);


//typedef int(*func)(int x);
//define different functions
/*
auto function = [](int x) return x; ;
auto functionTimesTwo = [](int x) return (x*2); ;
auto functionDivideByTwo = [](int x) return (x/2); ;
auto lambdaFunction = [](int x)return (++x);;
*/

int main(int argc, char *argv[]) 
    std::vector<int> v =  1,2,3,4,5,6,7,8,9 ;
    auto f = [](int x) return (++x); ;
    //Array of functions
    /*func functions[] =
        
            function,
            functionTimesTwo,
            functionDivideByTwo,
            lambdaFunction
        ;

    for(int i = 0; i< sizeof(functions); i++)
        auto m1 = make_map<int, int>(functions[i]);
*/
    auto m1 = make_map<int, int>(f);
    std::vector<int> r = m1(true, v);
    //print the result
    for(auto &e:r) 
        std::cout << e << " ";
    
    return 0;

【问题讨论】:

【参考方案1】:

一个好的开始是格式化你的代码,这样你就有了一致的缩进。我在这里为你做了。如果您使用的是 Visual Studio Community,请选择文本并按 Ctrl+K,然后按 Ctrl+F

现在进行分析。这是一个简单的Clock 类,易于用于分析:

#include <chrono>
class Clock 
private:
    typedef chrono::high_resolution_clock clock;
    chrono::time_point<clock> t;
public:
    Clock()  start(); 
    void start()  t = clock::now(); 
    double stop() const  return chrono::duration_cast<chrono::duration<double>>(clock::now()-t).count(); 
;

准备就绪后,您可以通过以下方式分析您的 GPU 内核:

Clock clock;
clock.start();
status = clEnqueueNDRangeKernel(queue, kernel, dim, nullptr, global_size, local_size, 0, nullptr, &event);
clFinish(queue); // important: this will block until kernel execution is finished
std::cout << "Execution time: " << clock.stop() << " seconds" << std::endl;

为了获得更准确的测量结果,您可以在一个循环中多次测量内核执行时间并计算平均值。

【讨论】:

非常感谢。我在这种情况下被困了三天。我阅读和研究了太多,但我很困惑,不明白我应该如何使用它们。谢谢 要准确测量设备上的内核执行时间,可以使用 SYCL 分析事件:github.com/intel/pti-gpu/blob/master/chapters/…

以上是关于如何测量设备+OpenCL+GPU中代码的执行时间的主要内容,如果未能解决你的问题,请参考以下文章

在多 GPU 系统中,给定 PCI 供应商、设备和总线 ID,如何将 OpenCL 设备与特定 GPU 匹配?

OpenCL – 执行动态 for 循环

OpenCL:GPU 上的单个计算设备?

Javascript中代码的执行顺序是啥?

OpenCL。如何确定哪个计算设备是空闲的并相应地提交作业?

如何在 Nvidia GPU 上调试 OpenCL?