yolo12 Target 目标检测
该测试程序会推理 yolo12 模型实现目标检测,结果以打印和图片的形式输出。
下载预编译好的 cvimodel
git clone https://github.com/Arielfoever/milkv-yolo12.git
PC 端交叉编译YOLO程序
可以使用yolov8的程序。Duo256M yolov8 代码 sample_yolov8.cpp
也可以使用 yolov12 程序,位于 v12.cpp 。该程序提供更好的打印输出和图片输出。
Compilation method
参考上一章节简介中的方法编译示例程序
编译完成后,会在sample/cvi_yolo/目录下生成我们需要的sample_yolov8程序
模型编译
如果已经下载了yolov8的仓库,git pull 即可。
Export yolo11.onnx model
从 YOLO12: Attention-Centric Object Detection 下载 yolo12n.pt。
安装 ultralytics.
将 yolo_export/yolov8_export.py 代码复制到 yolo12 仓库,yolo12 可兼容 yolov8 。
python3 yolov8_export.py --weights ./yolo12n.pt --img-size 640 640
TPU-MLIR conversion model
请参考TPU-MLIR 文档 配置好 TPU-MLIR 工作环境,参数解析请参考 TPU-MLIR 文档。
配置好工作环境后,在与本项目同级目录下创建一个model_yolo11n目录,将模型和图片文件放入其中。
cp -rf ${REGRESSION_PATH}/dataset/COCO2017 .
cp -rf ${REGRESSION_PATH}/image .
onnx to MLIR
model_transform.py \
--model_name yolo12n \
--model_def ../yolo12n.onnx \
--input_shapes [[1,3,640,640]] \
--mean 0.0,0.0,0.0 \
--scale 0.0039216,0.0039216,0.0039216 \
--keep_aspect_ratio \
--pixel_format rgb \
--test_input ../image/dog.jpg \
--test_result yolov12n_top_outputs.npz \
--mlir yolov12n.mlir
转换成 mlir 文件之后,会生成一个yolo12n.mlir文件。
MLIR to INT8 model (only supports INT8 quantized model)
量化成 INT8 模型前需要运行 calibration.py,得到校准表,输入数据的数量根据情况准备 100~1000 张左右,这里演示准备了 100 张 COCO2017 的图片:
run_calibration.py yolov12n.mlir \
--dataset ../COCO2017 \
--input_num 100 \
-o yolo12n_cali_table