TVM按照以下顺序来进行编译、安装:
因为我们暂时测试的TVM前端模型是MXNet模型,所以进行编译模型之前要先安装host版本的MXNet。这里我们最简单的通过python-pip的方式进行安装。
sudo apt-get update
sudo apt-get install -y wget python gcc
wget https://bootstrap.pypa.io/get-pip.py && sudo python get-pip.py
安裝GPU版本(主机采用Nvidia的GTX1060)的MXNet时,需要提前安装好Nvidia库来驱动GPU。主要包括CUDA9.0(安装教程)和cuDNN(安装教程)两部分。
运行下面命令即可查看CUDA和cuDNN是否已经安装,以及对应版本号。
nvidia-smi
nvcc --version
pip install mxnet-cu90
# 可选项,安装graphviz,为使用mxnet.viz包进行图形可视化所需。
apt-get install graphviz
pip install graphviz
# 可选项,安装Intel MKL
pip install mxnet-cu90mkl
python
# 进入python运行空间,然后输入以下python代码进行验证
>>> import mxnet as mx
>>> a = mx.nd.ones((2, 3)), mx.gpu())
>>> b = a * 2 + 1
>>> b.asnumpy()
array([[ 3., 3., 3.],
[ 3., 3., 3.]], dtype=float32)
# 如果上述代码执行正确则表示MXNet host版本已经正确安装
>>> exit()
如下图所示TVM对于ARM后端的支持是基于LLVM编译器实现的,TVM对于的LLVM版本的最低要求为4.0,最高版本不能超过6.0。本次安装LLVM版本6.0。
第一步,首先编辑 /etc/apt/sources.list,加入以下源:
deb http://apt.llvm.org/xenial/ llvm-toolchain-xenial-6.0 main
deb-src http://apt.llvm.org/xenial/ llvm-toolchain-xenial-6.0 main
添加源后务必运行apt-get update,如果有错误提示,先运行第二步,然后apt-get update)
第二步,安装前必须取得相关证书
wget -O - http://llvm.org/apt/llvm-snapshot.gpg.key|sudo apt-key add -
apt-get install clang-6.0 lldb-6.0
显示如下即安装成功
上面的脚本只适用于Ubuntu16.04添加LLVM 6.0,如果你使用的是其他的操作系统和LLVM版本可以参考这里。
由于TVM 0.4.0版本首次采用cmake作为编译配置工具,需要安装cmake。
cd /opt/software/
wget https://cmake.org/files/v3.11/cmake-3.11.0-rc2-Linux-x86_64.tar.gz
tar zxvf cmake-3.11.0-rc2-Linux-x86_64.tar.gz
ln -sf /opt/software/cmake-3.11.0-rc2-Linux-x86_64/bin/* /usr/bin/
# git命令中选项recursive表示要将项目全部文件都下载,包括子模块。
git clone --recursive https://github.com/dmlc/tvm/
apt-get update
apt-get install -y python python-dev python-setuptools gcc libtinfo-dev zlib1g-dev
在运行cmake-gui命令之前,修改tvm/CMakeLists.txt内容
# 显示执行构建过程中详细的信息,如编译工具选择,有助于区分系统编译工具和交叉编译工具
set(CMAKE_VERBOSE_MAKEFILE ON)
# llvm-config路径为/usr/bin/llvm-config-6.0
tvm_option(USE_LLVM "Build with LLVM, can be set to specific llvm-config path" /usr/bin/llvm-config-6.0)
修改tvm/cmake/config.cmake
# 文件默认为set(USE_LLVM OFF)
set(USE_LLVM /usr/bin/llvm-config-6.0)
完成上述修改后,执行如下命令进行编译选项配置:
cd tvm
mkdir build
cd tvm/build
cmake-gui
make -j4
如果编译正常完成之后,会在tvm的lib目录下面生成一些库文件。
在安装之前先在/etc/bash.bashrc中设置PYTHONPATH环境变量
export PYTHONPATH=/opt/compile/BoxV3/tvm_host/tvm/python:/opt/compile/BoxV3/tvm_host/tvm/topi/python:/opt/compile/BoxV3/tvm_host/tvm/nnvm/python:${PYTHONPATH}
重启命令行以重新加载PYTHONPATH
若不设置PYTHONPATH环境变量,每次修改TVM的python源码均需要通过以下命令更新源码:
cd tvm
cd python; python setup.py install; cd ..
cd topi/python; python setup.py install; cd ../..
cd nnvm/python; python setup.py install; cd ../..
在安装Python包之前为了交叉编译模型需要修改TVM Python源代码
armv7与armv8交叉编译采用不同架构的交叉编译工具链,arv8自带neon寄存器支持,不需要在源码中添加。
针对armv8目标器件进行修改:
def rasp(options=None):
"""Returns a rasp target.
Parameters
----------
options : str or list of str
Additional options
"""
opts = ["-device=rasp",
"-mtriple=aarch64-linux-gnu",
"-mcpu=cortex-a57"]
opts = _merge_opts(opts, options)
return _api_internal._TargetCreate("llvm", *opts)
针对armv7目标器件进行修改:
def rasp(options=None):
"""Returns a rasp target.
Parameters
----------
options : list of str
Additional options
"""
opts = ["-device=rasp",
"-mtriple=arm-linux-gnueabihf",
"-mcpu=cortex-a7",
"-mattr=+neon"]
opts = _merge_opts(opts, options)
return _api_internal._TargetCreate("llvm", opts)
以下修改仅展示对armv8目标器件的修改内容,armv7器件在相同文件对应位置进行修改,替换为armv7的交叉工具链即可。
def create_shared(output,
objects,
options=None,
cc="aarch64-linux-gnu-g++"):
def _linux_shared(output, objects, options, cc="aarch64-linux-gnu-g++"):
Target rasp(const std::vector& options) {
return CreateTarget("llvm", MergeOptions(options, {
"-device=rasp",
"-mtriple=aarch64-linux-gnu",
"-mcpu=cortex-a57"
}));
}
def test_popcount():
target = 'llvm -target=aarch64-linux-gnu -mcpu=cortex-a57'
if use_rasp:
target = "llvm -target=aarch64-linux-gnu -mcpu=cortex-a57"
#第33行int改为long
def _parse_tshape(tshape):
"""Parse tshape in string."""
return [long(x.strip()) for x in tshape.strip('()').split(',')]
本文档目标器件为Firefly-RK3399(Cortex-A72+Cortex-A53,ARMv8架构),其他架构器件通常更换交叉编译链即可。
在/etc/bash.bashrc中设置本地编译链和交叉编译链,重启命令行使设置生效
# Native Compiler
export AR_host="ar"
export CC_host="gcc"
export CXX_host="g++"
export LINK_host="g++"
#ARMv8 cross compiler
export ARCH=arm
export PATH=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin:$PATH
export CROSS_COMPILE=aarch64-linux-gnu-
export CC=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-gcc
export CXX=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-g++
export LD=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-ld
export AR=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-ar
export AS=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-as
export RANLIB=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-ranlib
通过命令echo $CC查看aarch64-linux-gnu-gcc交叉编译工具是否生效
root@parking:/opt/compile/PC/tvm_0.4.0_armv8/tvm/build# echo $CC
/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-gcc
重新复制一份TVM到另外的文件夹,保证不和TVM的host版本冲突,执行命令清除host编译工具生成的libtvm_runtime.so文件和cmake编译配置。
cd tvm
make clean
rm -r build/*
由于TVM runtime不需要LLVM,根据前面“配置LLVM选项”部分,屏蔽掉LLVM选项。
# llvm-config路径为/usr/bin/llvm-config-6.0
tvm_option(USE_LLVM "Build with LLVM, can be set to specific llvm-config path" OFF)
set(USE_LLVM OFF)
再次执行cmake-gui进行编译配置,选择”Specify options for cross-compiling”
其中,C/C++对应选择交叉编译工具链中的工具,Target Root目录如下:
/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/aarch64-linux-gnu/libc
make runtime
编译成功后build文件夹会生成libtvm_runtime.so
这里编译的tvm_runtime运行时库是最终需要部署到嵌入式设备中的,和TVM模型编译无关。