YOLOv8 是 ultralytics 公司在 2023 年 1月 10 号开源的基于YOLOV5进行更新的 下一个重大更新版本,目前支持图像分类、物体检测和实例分割任务,鉴于Yolov5的良好表现,Yolov8在还没有开源时就收到了用户的广泛关注。其主要结构如下图所示:
本教程针对目标检测算法yolov8的训练和部署到EASY-EAI-Nano(RV1126)进行说明,而数据标注方法可以参考我们往期的文章。
通过git工具,在PC端克隆远程仓库(注:此处可能会因网络原因造成卡顿,请耐心等待),修改过算子后的yolov8仓库: https://github.com/airockchip/ultralytics_yolov8
onnx模型需要转换为rknn模型才能在EASY-EAI-Nano运行,所以需要先搭建rknn-toolkit模型转换工具的环境。当然tensorflow、tensroflow lite、caffe、darknet等也是通过类似的方法进行模型转换,只是本教程onnx为例。
模型转换环境搭建流程如下所示:
为了保证模型转换工具顺利运行,请下载网盘里”AI算法开发/RKNN-Toolkit模型转换工具/rknn-toolkit-v1.7.3/docker/rknn-toolkit-1.7.3-docker.tar.gz”。
把下载完成的docker镜像移到我司的虚拟机ubuntu20.04的rknn-toolkit目录,如下图所示:
在该目录打开终端:
执行以下指令加载模型转换工具docker镜像:
docker load --input /home/developer/rknn-toolkit/rknn-toolkit-1.7.3-docker.tar.gz
执行以下指令进入镜像bash环境:
docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb rknn-toolkit:1.7.3 /bin/bash
现象如下图所示:
输入“python”加载python相关库,尝试加载rknn库,如下图环境测试成功:
至此,模型转换工具环境搭建完成。
EASY EAI Nano支持.rknn后缀的模型的评估及运行,对于常见的tensorflow、tensroflow lite、caffe、darknet、onnx和Pytorch模型都可以通过我们提供的 toolkit 工具将其转换至 rknn 模型,而对于其他框架训练出来的模型,也可以先将其转至 onnx 模型再转换为 rknn 模型。 模型转换操作流程入下图所示:
把 yolov8_model_convert.tar.bz2和quant_dataset.zip解压到虚拟机,如下图所示:
执行以下指令把工作区域映射进docker镜像,其中/home/developer/rknn-toolkit/model_convert为工作区域,/test为映射到docker镜像,/dev/bus/usb:/dev/bus/usb为映射usb到docker镜像:
docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb -v /home/developer/rknn-toolkit/model_convert:/test rknn-toolkit:1.7.3 /bin/bash
执行成功如下图所示:
模型转换测试Demo由yolov8_model_convert和quant_dataset组成。Yolov8_model_convert存放软件脚本,quant_dataset存放量化模型所需的数据。如下图所示:
Yolov8_model_convert文件夹存放以下内容,如下图所示:
在docker环境切换到模型转换工作目录:
cd /test/yolov8_model_convert
如下图所示:
执行gen_list.py生成量化图片列表:
python gen_list.py
命令行现象如下图所示:
生成“量化图片列表”如下文件夹所示:
rknn_convert.py脚本默认进行int8量化操作,脚本代码清单如下所示:
import sys import os import urllib import traceback import time import sys import numpy as np import cv2 from rknn.api import RKNN ONNX_MODEL = 'yolov8m.onnx' RKNN_MODEL = './yolov8m_rv1126.rknn' DATASET = './pic_path.txt' QUANTIZE_ON = True PRECOMILE_ON = True if __name__ == '__main__': # Create RKNN object rknn = RKNN(verbose=True) if not os.path.exists(ONNX_MODEL): print('model not exist') exit(-1) # pre-process config print('--> Config model') rknn.config(reorder_channel='0 1 2', mean_values=[[0, 0, 0]], std_values=[[255, 255, 255]], optimization_level=3, target_platform = 'rv1126', output_optimize=1, quantize_input_node=QUANTIZE_ON) print('done') # Load ONNX model print('--> Loading model') ret = rknn.load_onnx(model=ONNX_MODEL) if ret != 0: print('Load yolov5 failed!') exit(ret) print('done') # Build model print('--> Building model') ret = rknn.build(pre_compile=PRECOMILE_ON, do_quantization=QUANTIZE_ON, dataset=DATASET) if ret != 0: print('Build yolov5 failed!') exit(ret) print('done') # Export RKNN model print('--> Export RKNN model') ret = rknn.export_rknn(RKNN_MODEL) if ret != 0: print('Export yolov5rknn failed!') exit(ret) print('done')
把onnx模型yolov8m_rv1126.onnx放到yolov8_model_convert目录(后续用户使用自己的模型的时候,替换掉对应的onnx即可),并执行rknn_convert.py脚本进行模型转换:
python rknn_convert.py
生成模型如下图所示,此模型可以在EASY EAI Nano环境运行:
本小节展示yolov8模型的在EASY EAI Nano的部署过程,该模型仅经过简单训练供示例使用,不保证模型精度。
如果您初次阅读此文档,请阅读《入门指南/开发环境准备/Easy-Eai编译环境准备与更新》,并按照其相关的操作,进行编译环境的部署。
在PC端Ubuntu系统中执行run脚本,进入EASY-EAI编译环境,具体如下所示。
cd ~/develop_environment ./run.sh
下载yolov8 C Demo示例文件。
下载程序包移至ubuntu环境后,执行以下指令解压:
tar -xvf yolov8_detect_C_demo.tar.bz2
下载解压后如下图所示:
在EASY-EAI编译环境下,切换到例程目录执行编译操作:
cd /opt/rknn-toolkit/yolov8_detect_C_demo ./build.sh
注:
* 由于依赖库部署在板卡上,因此交叉编译过程中必须保持adb连接。
在EASY-EAI编译环境下,在例程目录执行以下指令把可执行程序推送到开发板端:
cp yolov8_detect_demo_release/ /mnt/userdata/ -rf
通过按键Ctrl Shift T创建一个新窗口,执行adb shell命令,进入板卡运行环境:
adb shell
进入板卡后,定位到例程上传的位置,如下所示:
cd /userdata/yolov8_detect_demo_release/
运行例程命令如下所示:
./yolov8_detect_demo yolov8m_rv1126.rknn test.jpg
执行结果如下图所示,yolov8m算法执行时间为212ms:
更换yolov8s模型, 算法执行时间为123ms:
退出板卡环境,取回测试图片:
exit adb pull /userdata/yolov8_detect_demo_release/result.jpg .
测试结果如下图所示:
至此,yolov8目标检测例程已成功在板卡运行。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com