Roboflow推理系统是一个开源且可扩展的平台,它允许直接将模型集成到应用程序逻辑中,或者在硬件上运行一个微服务来执行模型。推理系统旨在实现规模化运行:Roboflow使用推理系统为托管API提供动力,该API已经处理了数亿次的推理请求。
推理系统支持在CPU和GPU设备上运行模型,无论是云服务器、NVIDIA Jetsons还是Raspberry Pis,都能满足需求。当使用推理系统部署模型时,模型权重会被下载到硬件上以供使用。这些权重会在首次运行模型时下载,无论是通过推理SDK还是推理Docker容器。
为了遵守许可要求,微调后的模型权重只能在推理部署中使用。对于免费和入门计划的客户,Roboflow许可证允许在一台设备上使用模型。企业客户可以在多台设备上部署模型。
想要了解更多关于使用推理系统部署模型的信息,请参考。
如果需要访问模型的PyTorch或TensorFlow权重,可以导出数据集并在笔记本中训练模型。Roboflow提供了几个开源笔记本,可以使用这些笔记本来训练使用流行架构(如YOLO和SAM)的模型。使用Roboflow云训练训练的模型是专有的,未经许可,不得在Roboflow之外使用。
如果使用的架构有限制性许可,并且希望将模型用于企业用途,需要联系模型供应商以获取许可。否则,如果训练了一个支持的模型,可以将其上传到Roboflow进行部署。使用推理系统进行部署允许在一台设备上部署模型(对于免费和入门计划的客户)或在多台设备上部署模型(对于企业客户)。请参阅支持的模型列表,了解哪些模型被覆盖。
由于许可限制,直接从Roboflow导出模型权重是不可用的。
以下是使用Roboflow推理SDK的一个简单示例代码,展示了如何在应用程序中集成模型推理功能:
import roboflow_inference as rfi
# 初始化推理系统
model = rfi.Model("path/to/your/model")
# 加载图像
image = rfi.Image("path/to/your/image.jpg")
# 执行推理
results = model.predict(image)
# 打印推理结果
print(results)