(三)Yolov8的NCNN模型导出与部署
文章目录
- (三)Yolov8的NCNN模型导出与部署
-
- 1.`yolov8`导出`ncnn`模型
-
- 1).`ultralytics`直接导出`ncnn`模型
- 2).`ultralytics`导出`onnx`模型再转`ncnn`模型
- 2.`yolov8`关键点检测的推理过程
-
- 检测框推理过程
- 关键点推理过程
- 部署
-
- reference
欢迎访问个人网络日志🌹🌹知行空间🌹🌹
1.yolov8
导出ncnn
模型
1).ultralytics
直接导出ncnn
模型
from ultralytics import YOLO
# Create a model
model = YOLO('/xx/data/code/ultralytics/yolov8n-pose.pt')
# Export the model to NCNN with arguments
model.export(format='ncnn', half=True, imgsz=480)
执行上面的代码,会在当前路径创建yolov8n-pose_ncnn_model
文件夹:
.
├── metadata.yaml
├── model.ncnn.bin
├── model.ncnn.param
└── model_ncnn.py
model_ncnn.py
是ncnn
模型推理的测试文件,可以直接执行测试导出的模型是否能正常工作。
不过ultralytics
是使用pnnx
导出的ncnn
模型,使用c++
导入,
auto net_ = std::make_unique<ncnn::Net>();
assert(net_->load_param(param_file) == 0);
assert(net_->load_model(bin_file) == 0);
2).ultralytics
导出onnx
模型再转ncnn
模型
step1:
ultralytics
导出onnx
模型
from ultralytics <