使用MMdeploy编译得到dll动态链接库之后,使用C++文件调用dll动态链接库实现推理

注意:本文承接于文章使用MMDeploy(预编译包)转换MMxx(MMDeploy支持库均可)pth权重到onnx,并使用C++ SDK加载onnx得到dll动态链接库,实现在windows平台中调用(linux也适用)



在使用了上述文章得到对应的dll动态链接库之后,需要将得到的dll动态链接库和它所依赖的其他动态链接库同时放到同一个目录下,然后使用编写如下cpp文件即可实现调用和推理:

#ifdef UNICODE
#define LoadLibrary  LoadLibraryW
#else
#define LoadLibrary  LoadLibraryA
#endif // !UNICODE

#include 
#include 
#include 
#include 
#include   // 包含Windows API头文件


int main() {
    // 加载动态链接库
    // HMODULE hDll = LoadLibrary("");
    // 使用LoadLibraryEx()函数主要目的是为了加载调用dll依赖的其他dll动态链接库,使用LOAD_WITH_ALTERED_SEARCH_PATH参数实现
    HMODULE hDll = LoadLibraryEx("path\\to\\your\\own\\xxx.dll", NULL, LOAD_WITH_ALTERED_SEARCH_PATH);
    
    std::cout << "hDll: " << hDll << std::endl;

    if (hDll == NULL) {
        std::cout << "Failed to load the DLL" << std::endl;
        return 1;
    }

    // 获取动态链接库中的函数指针
    //这里的“ObjectdetectionFunc”可以随机命名,也可以直接使用该名,后边的()中的参数类型需要和你自己的dll编译源代码中的函数类型保持数量和类型的一致
    typedef int(*ObjectdetectionFunc)(const char *, const char *, const char *);  // 替换为实际的函数类型
   	
   	//这里的“do_inference”需要换为你自己的dll动态链接库中调用函数名
    ObjectdetectionFunc do_inference = (ObjectdetectionFunc)GetProcAddress(hDll, "do_inference");

    if (do_inference == NULL) {
        std::cout << "Failed to get the function from DLL" << std::endl;
        return 1;
    }

    // 调用动态链接库中的函数,这里传入的参数和dll编译源代码中对应的函数参数保持一致,因为我的dll库中的函数需要传入三个字符串,因此我在这里也传入对应的三个字符串即可
    int result = do_inference("xxx", "xxxx", "xxx");
    
    std::cout << "Result: " << result << std::endl;

    // 卸载动态链接库
    FreeLibrary(hDll);

    return 0;
}

你可能感兴趣的:(研1沉淀,dll调用,mmdeploy,深度学习模型部署流程,C++调用dll实现模型推理)