iOS开发之机器学习框架MediaPipe(5)

书接上回:iOS开发之机器学习框架MediaPipe(4)_hbblzjy的博客-CSDN博客

研究了这么长时间,终于可以写一下如何生成想要的功能包framework,然后放入自己的项目中了。

首先,源码中,每个Demo文件都有对应的BUILD文件,其实这个文件中的配置,就是为了能运行每一个不同的Demo。

iOS开发之机器学习框架MediaPipe(5)_第1张图片

查看helloworld中的BUILD文件,分析源码:

load(
    "@build_bazel_rules_apple//apple:ios.bzl",
    "ios_application",
) # 加载编译对应的bazel,加载ios_application,也就是编译app对应的数据配置
load(
    "//mediapipe/examples/ios:bundle_id.bzl",
    "BUNDLE_ID_PREFIX",
    "example_provisioning",
) # 加载源码中对应的文件,加载宏定义,加载之前配置开发者生成的provisioning文件

licenses(["notice"])

MIN_IOS_VERSION = "11.0" # 宏定义

alias(
    name = "helloworld",
    actual = "HelloWorldApp",
) # demo对应的文件夹名,demo名称

ios_application(
    name = "HelloWorldApp",
    app_icons = ["//mediapipe/examples/ios/common:AppIcon"],
    bundle_id = BUNDLE_ID_PREFIX + ".HelloWorld",
    families = [
        "iphone",
        "ipad",
    ],
    infoplists = [
        "//mediapipe/examples/ios/common:Info.plist",
        "Info.plist",
    ],
    minimum_os_version = MIN_IOS_VERSION,
    provisioning_profile = example_provisioning(),
    deps = [":HelloWorldAppLibrary"],
) # 配置app对应的相关参数值,这些值iOS开发者应该都能理解

objc_library(
    name = "HelloWorldAppLibrary",
    data = [
        "//mediapipe/graphs/edge_detection:mobile_gpu_binary_graph",
    ],
    deps = [
        "//mediapipe/examples/ios/common:CommonMediaPipeAppLibrary",
        "//mediapipe/graphs/edge_detection:mobile_calculators",
    ],
) # 配置依赖的库文件

更多具体参数含义,请参考bazel相关apple编译规范 

前面其实已经可以运行不同功能的Demo了,那是一种真机测试的方式之一,还有一种方法,就是利用命令行,生成对应Demo的ipa,然后安装到手机上运行。(在mediapipe目录下执行)

bazel build -c opt --config=ios_arm64 mediapipe/examples/ios/selfiesegmentationgpu:SelfieSegmentationGpuApp

如果在终端执行的命令报错,说明证书或者BUILD文件写的有问题,根据报错内容解决即可。命令执行后,效果如下:

iOS开发之机器学习框架MediaPipe(5)_第2张图片

根据输出的内容,在源码文件夹对应的位置可以找到,对应的文件,显示如下:

iOS开发之机器学习框架MediaPipe(5)_第3张图片

这样一个Demo的ipa安装到手机上,就可以查看效果了,那么对应的能生成app,那就一定能生成framework,关键就是对BUILD文件的修改,将编译模式ios_application改为ios_framework,然后配置ios_framework对应的参数值,自定义的功能文件要放在对应的examples对应demo的文件夹下,否则找不到,我写了一个例子如下:

ios_framework(
    name = "Mediapipe",
    hdrs = [
        "CustomTest.h",
    ],
    bundle_id = BUNDLE_ID_PREFIX + ".SelfieSegmentationGpu",
    families = [
        "iphone",
        "ipad",
    ],
    infoplists = [
        "Info.plist",
    ],
    minimum_os_version = MIN_IOS_VERSION,
    deps = [
        ":SelfieSegmentationGpuAppLibrary",
        "@ios_opencv//:OpencvFramework",
    ],
)

BUILD文件中然后修改其他的参数,比如objc_library,可以添加自己需要的依赖库,还有自定义的文件名,还有依赖其他BUILD需要的库,修改后这样可以保证自己BUILD出的framework是个独立的个体,而且不会生成一些不需要的文件。具体的这里就不详细说了,自己研究或者有疑问留言吧,哈哈哈哈哈哈~

修改好BUILD文件后,依然需要执行上面的命令行,然后就会在之前生成ipa文件夹下,生成对应的:包名.zip 文件,解压就可看到对应的framework,效果如下:

iOS开发之机器学习框架MediaPipe(5)_第4张图片

iOS开发之机器学习框架MediaPipe(5)_第5张图片

然后就开始迫不及待的放到Demo中运行,结果发现竟然崩了,原因是缺少配置嵌入式框架,于是添加一下,显示如下:

iOS开发之机器学习框架MediaPipe(5)_第6张图片

这样Demo就可以运行成功了,剩下的就是方法调用和效果实现了,这里我就不在展示了,大家就具体实践开发吧!

整理研究不易,转载请注明,请联系,谢谢!!!

你可能感兴趣的:(iOS开发等常用知识点,ios,xcode,iphone,mediapipe,虚拟背景)