基于 Squeezenet 的图像分类
1. 配置 Docker 开发环境
参考 这里 配置好 Docker 开发环境后,再回到这里继续下一步。
若您使用已经配置好的 Docker 开发环境,请您启动 Docker 后务必按照 Docker 配置教程 执行 source ./tpu-mlir/envsetup.sh
命令,否则后续步骤可能报错。
2. 在 Docker 中准备工作目录
创建并进入 squeezenet1.1
工作目录,注意是与 tpu-mlir
同级的目录
# mkdir squeezenet1.1 && cd squeezenet1.1
获取原始模型
# wget https://media.githubusercontent.com/media/onnx/models/main/validated/vision/classification/squeezenet/model/squeezenet1.1-7.tar.gz
将 squeezenet1.1-7.tar.gz
解压
# tar -zxvf squeezenet1.1-7.tar.gz
解压后会在当前目录生成 squeezenet1.1
文件夹,该文件夹下包含有 squeezenet1.1.onnx
模型文件
拷贝测试图片:
# cp -rf ${TPUC_ROOT}/regression/dataset/ILSVRC2012/ .
# cp -rf ${TPUC_ROOT}/regression/image/ .
这里的 ${TPUC_ROOT}
是环境变量,对应 tpu-mlir
目录,是在前面配置 Docker 开发环境中 source ./tpu-mlir/envsetup.sh
这一步加载的
创建并进入 work
工作目录,用于存放编译生成的 MLIR、cvimodel 等文件
# mkdir work && cd work
3. ONNX 模型转换
Duo 开发板搭载的是 CV1800B 芯片,该芯片支持 ONNX 系列 和 Caffe 模型,目前不支持 TFLite 模型。在量化数据类型方面,支持 BF16 格式的量化 和 INT8 格式的非对称量化
模型转换步骤如下:
- ONNX 模型转换成 MLIR
- 生成量化需要的校准表
- MLIR 量化成 INT8 非对称 cvimodel
ONNX 模型转换成 MLIR
本例中的模型是 RGB 输入, mean
和 scale
分别为 123.675
,116.28
,103.53
和 0.0171
,0.0175
,0.0174
将 ONNX 模型转换为 MLIR 模型的命令如下:
model_transform.py \
--model_name squeezenet1.1 \
--model_def ../squeezenet1.1/squeezenet1.1.onnx \
--test_input ../image/cat.jpg \
--input_shapes [[1,3,224,224]] \
--resize_dims 256,256 \
--mean 123.675,116.28,103.53 \
--scale 0.0171,0.0175,0.0174 \
--pixel_format rgb \
--test_result squeezenet1.1_top_outputs.npz \
--mlir squeezenet1.1.mlir
运行成功效果示例
转成 MLIR 模型后,会生成一个 squeezenet1.1.mlir
文件,该文件即为 MLIR 模型文件,还会生成一个 squeezenet1.1_in_f32.npz
文件和一个 squeezenet1.1_top_outputs.npz
文件,是后续转模型的输入文件
MLIR 转 INT8 模型
生成量化需要的校准表
在转 INT8 模型之前需要先生成校准表,这里用现有的 100 张来自 ILSVRC2012 的图片举例,执行 calibration 命令:
run_calibration.py squeezenet1.1.mlir \
--dataset ../ILSVRC2012 \
--input_num 100 \
-o squeezenet1.1_cali_table
运行成功效果示例
运行完成后会生成名为 squeezenet1.1_cali_table
的文件, 该文件用于后续编译 INT8 模型的输入文件