PaddleLite使用RK NPU预测部署

Paddle Lite已支持RK NPU的预测部署。 其接入原理是与之前华为NPU类似,即加载并分析Paddle模型,将Paddle算子转成RK组网API进行网络构建,在线生成并执行模型。

支持现状

已支持的芯片

  • RK1808, RK1806
  • RK1126, RK1109

已支持的设备

  • RK1808 EVB,暂时不支持RK3399Pro。

已支持的Paddle模型

已支持(或部分支持)的Paddle算子

  • relu
  • conv2d
  • depthwise_conv2d
  • pool2d
  • fc
  • softmax
  • batch_norm
  • concat
  • elementwise_add
  • elementwise_sub
  • elementwise_mul
  • elementwise_div

参考示例演示

测试设备

https://paddlelite-demo.bj.bcebos.com/devices/rockchip/rk1808_evb_front.jpgrk1808_evb_front

https://paddlelite-demo.bj.bcebos.com/devices/rockchip/rk1808_evb_back.jpgrk1808_evb_back

准备设备环境

  • 需要依赖特定版本的firmware,请参照rknpu_ddk的说明对设备进行firmware的更新;
  • 由于RK1808 EVB在刷firmware后,只是一个纯净的Linux系统,无法像Ubuntu那样使用apt-get命令方便的安装软件,因此,示例程序和PaddleLite库的编译均采用交叉编译方式;
  • 将MicroUSB线插入到设备的MicroUSB OTG口,就可以使用Android的adb命令进行设备的交互,再也不用配置网络使用ssh或者通过串口的方式访问设备了,这个设计非常赞!

准备交叉编译环境

  • 为了保证编译环境一致,建议参考源码编译中的Docker开发环境进行配置。

运行图像分类示例程序

- PaddleLite-armlinux-demo
  - image_classification_demo
    - images 
      - tabby_cat.jpg # 测试图片
      - tabby_cat.raw # 已处理成raw数据的测试图片
    - labels
      - synset_words.txt # 1000分类label文件
    - models
      - mobilenet_v1_int8_224_for_rknpu.nb # 已通过opt转好的mobilenetv1全量化模型
    - CMakeLists.txt # 示例程序CMake脚本
    - build
      - image_classification_demo # 已编译好的示例程序
    - image_classification_demo.cc # 示例程序源码
    - convert_to_raw_image.py # 将测试图片保存为raw数据的python脚本
    - build.sh # 示例程序编译脚本
    - run.sh # 示例程序运行脚本
  - Paddle-Lite
    - include # PaddleLite头文件
    - libs
      - armv8
        - libGAL.so # RK DDK库
        - libOpenVX.so
        - libVSC.so
        - librknpu_ddk.so
        - libgomp.so.1 # gnuomp库
        - libpaddle_light_api_shared.so # 预编译PaddleLite库
  • 进入PaddleLite-armlinux-demo/image_classification_demo,再定频后直接执行./run.sh即可,注意:run.sh的执行不能在docker环境,否则无法找到设备;
$ cd PaddleLite-armlinux-demo/image_classification_demo
$ adb shell
  / # echo userspace > /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor
  / # echo 1608000 > /sys/devices/system/cpu/cpu0/cpufreq/scaling_setspeed
  / # echo userspace > /sys/devices/system/cpu/cpu1/cpufreq/scaling_governor
  / # echo 1608000 > /sys/devices/system/cpu/cpu1/cpufreq/scaling_setspeed
$ ./run.sh
...
warmup: 5 repeat: 10, average: 6.486600 ms, max: 6.544000 ms, min: 6.450000 ms
results: 3
Top0  tabby, tabby cat - 0.438732
Top1  Egyptian cat - 0.438732
Top2  tiger cat - 0.116995
Preprocess time: 2.447000 ms
Prediction time: 6.486600 ms
Postprocess time: 0.101000 ms
  • 如果需要更改测试图片,可通过convert_to_raw_image.py工具生成;
  • 如果需要重新编译示例程序,直接运行./build.sh即可,注意:build.sh的执行必须在docker环境中,否则可能编译出错。

更新模型

$ ./opt --model_dir=mobilenet_v1_int8_224_fluid \
    --optimize_out_type=naive_buffer \
    --optimize_out=mobilenet_v1_int8_224_for_rknpu \
    --valid_targets=rknpu,arm
  • 注意:opt生成的模型只是标记了RKNPU支持的Paddle算子,并没有真正生成RK NPU模型,只有在执行时才会将标记的Paddle算子转成RK NPU组网API,最终生成并执行HiAI模型。

更新支持RK NPU的Paddle Lite库

  • 下载PaddleLite源码和RK DDK;
$ git clone https://github.com/PaddlePaddle/Paddle-Lite.git
$ cd Paddle-Lite
$ git checkout <release-version-tag>
$ git clone https://github.com/airockchip/rknpu_ddk.git
  • 编译full_publish and tiny_publish for armv8(注意:RKNPU_DDK只支持armv8)
$ ./lite/tools/build.sh --arm_os=armlinux --arm_abi=armv8 --arm_lang=gcc --build_extra=ON --shutdown_log=OFF --build_rknpu=ON --rknpu_ddk_root=./rknpu_ddk full_publish
$ ./lite/tools/build.sh --arm_os=armlinux --arm_abi=armv8 --arm_lang=gcc --build_extra=ON --shutdown_log=OFF --build_rknpu=ON --rknpu_ddk_root=./rknpu_ddk tiny_publish
  • 将编译生成的build.lite.armlinux.armv8.gcc/inference_lite_lib.armlinux.armv8.rknpu/cxx/include替换PaddleLite-armlinux-demo/Paddle-Lite/include目录;
  • 将编译生成的build.lite.armlinux.armv8.gcc/inference_lite_lib.armlinux.armv8.rknpu/cxx/lib/libpaddle_light_api_shared.so替换PaddleLite-armlinux-demo/Paddle-Lite/libs/armv8/libpaddle_light_api_shared.so文件。

其它说明

  • RK研发同学正在持续增加用于适配Paddle算子bridge/converter,以便适配更多Paddle模型。