推理(部署)

常用框架

读前须知

后面的代码都是_Python的代码,但是实际上应用的话大多都是C++的代码,但是_C++的代码配置很麻烦这里不多介绍.很多人不理解人工智能到底是怎么进行使用的比如我搞智能车的时候,很多人认为,人工智能推动一切,其实并不是的,人工智能只做一个推理预测,有没有检测到东西,并不会推动一切,其他的都是通过代码推动的,自动化控制.部署的难度较大,这边只放了一些很简单的代码,具体的话需要查阅API文档去实现你自己需要的功能,这边只做一个参考

Pytorch框架

pytorch框架用自己的模型进行推理,修改path路径和图片路径即可

import torch

model = torch.hub.load('ultralytics/yolov5', 'custom', path='model.pt', device=0)  # local model
# Images
img = "image.jpg"  # or file, Path, PIL, OpenCV, numpy, list

# Inference
results = model(img)
results.show()#展示
results.save()#保存

opencv读取图片

老样子替换图片路径和模型路径

飞浆框架

fastdeploy

示例代码

paddle lite

Paddle Inference

Paddle Serving

Paddle.js

onnxruntime

建议如果不是必须的情况下,建议不用onnxruntime进行推理,因为首先代码很难写,而且结果不一定是你想要的,花了一天没跑出来然而上面的fastdeploy读练好的模型配置就出了,如果用onnxruntime的话需要用_Netron_查看输入输出维度,去做对应的调整,建议准备读研的同学去研究一下,把文档补充完整

yolov5转onnx推理

代码示例

1.1模型读取

model_config.hpp代码

json用的是nlohmannarrow-up-right

使用示例,针对于_飞浆的模型_

最后更新于