模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版)

2024-06-04 9834阅读

欢迎学习RKNN系列相关文章,从模型转换、精度分析,评估到部署,推荐好资源:

一、Ubuntu系统上安装rknn-toolkit

二、使用rknn-toolkit将Pytorch模型转为RKNN模型

三、RKNN模型的评估和推理测试

四、RKNN模型量化精度分析及混合量化提高精度

五、RKNN模型性能评估和内存评估

六、rknn-toolkit-lite2部署RKNN模型到开发板上(python版)

七、RKNN C API开发板上落地部署RKNN模型

八、RKNN零拷贝API开发板落地部署RKNN模型


模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版) 第1张

在RKNN模型部署前,需要注意以下几点:

(1)硬件平台兼容性:

确保你的开发板与 RKNN Toolkit Lite2 兼容。目前,RKNN Toolkit Lite2 支持 Rockchip RK3566、RK3588、RK3399 等平台。

确认开发板的 NPU 型号和版本与 RKNN 模型的 NPU 算子兼容。

(2)模型转换:

使用 RKNN Toolkit 或 RKNNConverter 工具将 PyTorch、TensorFlow 等框架模型转换为 RKNN 模型。

转换时,需要指定目标硬件平台和 NPU 型号。

确保模型转换成功,并生成相应的 RKNN 模型文件。

关于模型转换的教程,参考我另外一篇博文:Pytorch转RKNN模型

(3)部署环境:

在开发板上安装 RKNN Runtime 和相关依赖库。

确认开发板的系统版本和编译环境与 RKNN Toolkit Lite2 兼容。

(4)模型加载:

使用 RKNN Toolkit Lite2 提供的 API 加载 RKNN 模型。

需指定模型文件路径以及其他参数。

(5)模型推理:

使用 RKNN Toolkit Lite2 提供的 API 进行模型推理。

需提供输入数据和相关参数。

(6)性能优化:

可以使用 RKNN Toolkit Lite2 提供的性能分析工具分析模型性能。

根据分析结果,可以对模型进行优化,以提高推理速度和降低功耗。

目录

  • 一、源码包准备
  • 二、环境准备
    • 2.1 安装Miniconda
    • 2.2 新建虚拟环境
    • 2.3 安装rknn_toolkit_lite2包
    • 2.4 安装OpenCV包
    • 三、推理
      • 3.1 代码
      • 3.2 开发板推理结果
      • 四、总结

        一、源码包准备

        本配套源码包的获取方式为文章末扫码到公众号「视觉研坊」中回复关键字:RKNN Lite2开发板部署。获取下载链接。

        下载解压后的样子如下:

        模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版) 第2张

        二、环境准备

        先在开发板上运行rknn_server,通过adb连通开发板,在开发板系统上安装python编译环境。

        2.1 安装Miniconda

        在开发板系统上安装Miniconda的详细教程,见我另外一篇博客:Miniconda安装

        2.2 新建虚拟环境

        上一步Miniconda安装好后,在此基础上安装一个新的虚拟环境,如下,:

        查看已有虚拟环境命令为:

        conda env list
        

        创建新虚拟环境命令为:

        conda create -n name python=3.9
        

        模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版) 第3张

        模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版) 第4张

        上面步骤创建好后激活虚拟环境,如下:

        激活命令为:

        conda activate name
        

        模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版) 第5张

        2.3 安装rknn_toolkit_lite2包

        rknn_toolkit_lite2包的轮子文件,在我提供源码包中的packages文件夹中,如下:

        模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版) 第6张

        在激活的虚拟环境中,进入到存放轮子文件目录下,使用下面命令安装:

        pip install rknn_toolkit_lite2-1.6.0-cp39-cp39-linux_aarch64.whl -i https://pypi.mirrors.ustc.edu.cn/simple/
        

        模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版) 第7张

        2.4 安装OpenCV包

        在同样的虚拟环境下,使用下面命令安装opencv:

        pip install opencv-python -i https://pypi.mirrors.ustc.edu.cn/simple/
        

        模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版) 第8张

        三、推理

        上面环境都准备好后,在终端通过命令进入到源码包目录下,运行下面命令即可在开发板上推理RKNN模型。

        python rknntoolkit_lite2_inference.py
        

        模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版) 第9张

        3.1 代码

        此代码对应源码包中的rknntoolkit_lite2_inference.py脚本。

        from rknnlite.api import RKNNLite
        import cv2
        import numpy as np
        def show_outputs(output):
            output_sorted = sorted(output,reverse = True)
            top5_str = '\n----------top5-----------\n'
            for i in range(5):
                value = output_sorted[i]
                index = np.where(output == value)
                for j in range(len(index)):
                    if (i + j) >= 5:
                        break
                    if value > 0:
                        top1 = "{}:{}\n".format(index[j],value)
                    else:
                        top1 = "-1:0.0\n"
                    top5_str += top1
            print(top5_str)
        def show_perfs(perfs):
            perfs = "perfs:{}\n".format(perfs)
            print(perfs)
        def softmax(x):
            return np.exp(x)/sum(np.exp(x))
        if __name__ == "__main__":
            rknn = RKNNLite()
            # 使用load_rknn接口直接加载RKNN模型
            rknn.load_rknn(path="resnet18.rknn")
            # 调用init_runtime接口初始化运行时环境
            rknn.init_runtime(
                core_mask = 0,  # core_mask表示NPU的调度模式,设置为0时表示自由调度,设置为1,2,4时分别表示调度某个单核心,设置为3时表示同时调度0和1两个核心,设置为7时表示1,2,4三个核心同时调度
                # targt = "rk3588"
            )
            # 使用Opencv读取图片
            img = cv2.imread("space_shuttle_224.jpg")
            img = cv2.cvtColor(img,cv2.COLOR_BGR2RGB)
            # 调用inference接口进行推理测试
            output = rknn.inference(
                inputs=[img],
                data_format=None
            )
            show_outputs(softmax(np.array(output[0][0])))  # 根据概率排名,打印出前5名的概率
            rknn.release()
        

        3.2 开发板推理结果

        运行上面脚本,输出推理结果如下:

        模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版) 第10张

        打开源码包中的图片和imagenet1000标签.txt文件对照查看,推理预测的结果与标签文件对应的类名一致,说明开发板推理结果正确,如下:

        模型部署——rknn-toolkit-lite2部署RKNN模型到开发板上(python版) 第11张

        四、总结

        以上就是rknn-toolkit-lite2部署RKNN模型到开发板上的详细过程,CAPI开发板部署见下一期博文。

        总结不易,多多支持,谢谢!

        感谢您阅读到最后!关注公众号「视觉研坊」,获取干货教程、实战案例、技术解答、行业资讯!


    免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理! 图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库和百度,360,搜狗等多加搜索引擎自动关键词搜索配图,如有侵权的图片,请第一时间联系我们,邮箱:ciyunidc@ciyunshuju.com。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!

    目录[+]