部署计算机视觉模型到Azure

即使没有机器学习或设备特定部署的先验知识,也可以将计算机视觉模型部署到各种设备和环境中。使用推理功能,可以部署对象检测、分类、分割以及一系列基础模型(例如SAM和CLIP)以供生产使用。如果有可选的企业许可证,还可以访问额外的功能,如设备管理能力和负载均衡器支持。

Azure上部署Roboflow推理

本指南将向展示如何将Roboflow推理部署到Azure。将在Azure上部署一个虚拟机,安装Docker,安装推理,然后在Roboflow上训练的计算机视觉模型上本地运行推理。

前往MicrosoftAzure仪表板,在产品搜索栏中搜索“虚拟机”。点击“创建”以创建一个虚拟机:选择下拉菜单中出现的“Azure虚拟机”。接下来,将被要求配置虚拟机。如何配置虚拟机取决于计划如何使用虚拟机,因此本教程中不会涵盖具体细节。

Roboflow推理可以在CPU(x86和ARM)和NVIDIA GPU设备上运行。为了在生产中获得最佳性能,建议部署一台带有NVIDIA GPU的机器。对于测试,使用根据需求有意义的系统。

在本指南中,将在CPU设备上部署。一旦确认部署虚拟机,Azure将显示部署的进度:当虚拟机准备好后,会出现一个弹出窗口。点击“查看资源”以查看虚拟机。或者,返回到虚拟机主页并选择新部署的虚拟机。

要登录虚拟机,首先点击“连接”。选择喜欢的认证方法。在本指南中,将通过命令行使用SSH登录虚拟机。当SSH登录到虚拟机时,将看到标准shell,可以在其中编写命令。

现在有了一台准备好的虚拟机,可以安装Roboflow推理。在本指南中,在一台带有CPU的机器上部署。因此,将介绍CPU安装说明。如果在GPU上部署,请参考Roboflow推理Docker安装说明来安装推理。

无论使用GPU还是CPU,安装推理都有三个步骤:安装Docker。为机器类型拉取推理Docker容器。运行Docker容器。Docker安装说明因操作系统而异。要找出机器使用的操作系统,请运行以下命令:

lsb_release -a

在这个例子中,在Ubuntu机器上部署。因此,需要按照UbuntuDocker安装说明进行。按照机器的Docker安装说明进行。安装完Docker后,可以安装推理。以下是在GPU上安装推理的命令:

docker pull roboflow/roboflow-inference-server-cpu

将看到一个交互式输出,显示下载Docker容器的状态。一旦Docker容器下载完成,可以使用以下命令运行推理:

docker run --net=host roboflow/roboflow-inference-server-cpu:latest

默认情况下,推理部署在http://localhost:9001。

所有推理都在设备上运行,以获得最大性能。现在已经运行了推理,可以开始加载一个模型来使用。要加载一个模型,需要向推理发送一个HTTP请求。第一次发送HTTP请求时,推理将下载并设置想要运行推理的模型的权重。在本指南中,将部署一个在Roboflow上训练的太阳能板模型。

要发送请求,需要一些信息:RoboflowAPI密钥、模型ID、模型版本。要获取这些信息,请转到Roboflow仪表板并选择一个项目。然后,在项目的侧边栏中点击“版本”并选择想要部署的版本。

创建一个新的Python文件,并添加以下代码:

import requests dataset_id = "" version_id = "1" image_url = "" api_key = "ROBOFLOW_API_KEY" confidence = 0.5 url = f"http://localhost:9001/{dataset_id}/{version_id}" params = { "api_key": api_key, "confidence": confidence, "image": image_url, } res = requests.post(url, params=params) print(res.json())

在上述代码中,用之前打开的版本页面上可用的信息替换以下值:dataset_id:数据集ID(在这个例子中,“construction-safety-dkale”)。version_id:想要部署的版本(在这个例子中,1)。image_url:想要运行推理的图像。这可以是本地路径或URL。api_key:Roboflow API密钥。了解如何检索Roboflow API密钥。

现在准备运行推理。上面的脚本将在图像上运行推理,并返回模型返回的所有预测的JSON表示。

在本指南中,已经使用Roboflow推理将计算机视觉模型部署Azure。创建了一个Azure虚拟机来运行模型,通过Docker安装了Roboflow推理,并在图像上运行了推理。

现在已经设置了推理,下一步是根据需求配置服务器。例如,可以在认证后的公共域上部署推理,或在VPC中配置访问。

沪ICP备2024098111号-1
上海秋旦网络科技中心:上海市奉贤区金大公路8218号1幢 联系电话:17898875485