模型部署与推理 - Roboflow 指南

Roboflow推理系统是一个开源且可扩展的平台,它允许直接将模型集成到应用程序逻辑中,或者在硬件上运行一个微服务来执行模型。推理系统旨在实现规模化运行:Roboflow使用推理系统为托管API提供动力,该API已经处理了数亿次的推理请求。

推理系统支持在CPU和GPU设备上运行模型,无论是云服务器、NVIDIA Jetsons还是Raspberry Pis,都能满足需求。当使用推理系统部署模型时,模型权重会被下载到硬件上以供使用。这些权重会在首次运行模型时下载,无论是通过推理SDK还是推理Docker容器。

为了遵守许可要求,微调后的模型权重只能在推理部署中使用。对于免费和入门计划的客户,Roboflow许可证允许在一台设备上使用模型。企业客户可以在多台设备上部署模型。

想要了解更多关于使用推理系统部署模型的信息,请参考。

在笔记本中训练模型

如果需要访问模型的PyTorch或TensorFlow权重,可以导出数据集并在笔记本中训练模型。Roboflow提供了几个开源笔记本,可以使用这些笔记本来训练使用流行架构(如YOLO和SAM)的模型。使用Roboflow云训练训练的模型是专有的,未经许可,不得在Roboflow之外使用。

如果使用的架构有限制性许可,并且希望将模型用于企业用途,需要联系模型供应商以获取许可。否则,如果训练了一个支持的模型,可以将其上传到Roboflow进行部署。使用推理系统进行部署允许在一台设备上部署模型(对于免费和入门计划的客户)或在多台设备上部署模型(对于企业客户)。请参阅支持的模型列表,了解哪些模型被覆盖。

由于许可限制,直接从Roboflow导出模型权重是不可用的。

以下是使用Roboflow推理SDK的一个简单示例代码,展示了如何在应用程序中集成模型推理功能:

import roboflow_inference as rfi # 初始化推理系统 model = rfi.Model("path/to/your/model") # 加载图像 image = rfi.Image("path/to/your/image.jpg") # 执行推理 results = model.predict(image) # 打印推理结果 print(results)
沪ICP备2024098111号-1
上海秋旦网络科技中心:上海市奉贤区金大公路8218号1幢 联系电话:17898875485