无法确定如何将 Detectron2* 和 Layout-LM* 模型转换为OpenVINO™中间表示 (IR) 和使用 CPU 插件进行推断。
要转换 Detectron2 模型,请按照 Colab 教程使用 PyTorch* 训练和推断 Detectron2* 模型,并按照下面概述的步骤将模型转换为 ONNX* 格式,然后转换为 IR 格式。
$ python export_model.py --config-file ./output.yaml --sample-image ./new.jpg --output ./model/ --export-method tracing --format onnx MODEL。WEIGHTS ./output/model_final.pth 模型。DEVICE cpu
print(cfg.dump())
和 f 一同打开(“output.yaml”,“w”):
f.write(cfg.dump())
$ pip 安装 openvino-dev
$ mo --input_model ./model/model.onnx
使用 ONNX* 型号:
$ benchmark_app -m model.onnx -d CPU -niter 100 -api async - 提示吞吐量
$ benchmark_app -m model.onnx -d CPU -niter 100 -api async - 提示延迟
使用 IR 模型:
$ benchmark_app -m model.xml -d CPU -niter 100 -api async - 提示吞吐量
$ benchmark_app -m model.xml -d CPU -niter 100 -api async - 提示延迟
要转换 Layout-LM 模型。 按照 下面概述的步骤转换 布局-LM 模型和推理OpenVINO™。
$ pip 安装变压器 [onnx]
$ python3 -m 变压器.onnx --model=microsoft/layoutlm-base-uncased onnx
$ pip 安装 openvino-dev
$ mo --input_model ./onnx/model.onnx
使用 ONNX* 型号:
$ benchmark_app -m onnx/model.onnx -d CPU -niter 100 -api async - 提示吞吐量 - data_shape input_ids[1,1],bbox [1,1,4],attention_mask[1,1],token_type_ids[1,1]
$ benchmark_app -m onnx/model.onnx -d CPU -niter 100 -api async - 提示延迟 -data_shape input_ids[1,1],bbox[1,1,4],attention_mask[1,1],token_type_ids[1,1]
使用 IR 模型:
$ benchmark_app -m model.xml -d CPU -niter 100 -api async -hint 吞吐量 - data_shape input_ids[1,1],bbox[1,1,4],attention_mask[1,1],token_type_ids[1,1]
$ benchmark_app -m model.xml -d CPU -niter 100 -api async -hint latency -data_shape input_ids[1,1],bbox[1,1,4],attention_mask[1,1],token_type_ids[1,1]
| 注意 |
输入形状(由上面命令 data_shape 定义)可能基于用例不同。 |