如果希望在开发机器上快速运行一些简单的任务,而不想安装CUDA和Docker,那么Roboflow推理服务器可以满足需求。现在,可以通过npx轻松地启动推理服务器。任何支持tfjs-node的机器(包括任何现代的64位Intel、AMD或Arm CPU,如M1 MacBook或Raspberry Pi 4)都可以通过运行以下命令来启动推理服务器:
npx@roboflow/inference-server
如果命令执行不成功,请确保机器上已经安装了Node.js(安装指南)。这将下载并安装推理服务器,并在本地的9001端口上运行。
推理服务器启动后,可以使用示例代码或客户端SDK来从模型中获取预测。最简单的测试方法是通过命令行使用curl:
# 将一张扑克牌的图片保存为card.jpg
# 并将Roboflow API密钥保存在名为.roboflow_key的文件中
# 然后运行:
base64 card.jpg | curl -d @- "http://localhost:9001/playing-cards-ow27d/2?api_key=`cat .roboflow_key`"
也可以使用Python包或任何选择的语言的示例代码来获取本地模型的预测。
寻找模型以使用
可以在RoboflowUniverse上训练自己的自定义模型,或者选择成千上万个由他人共享的预训练模型。
构建计算机视觉应用程序
现在,可以构建一个由计算机视觉驱动的应用程序!例如,可以查看创建一个二十一点策略应用程序的直播。
跟随使用RoboflowUniverse中的扑克牌对象检测模型构建一个计算机视觉驱动的二十一点基本策略网络应用程序。在短短两小时内,将从样板代码开始,构建一个可以在手机或计算机的网络摄像头上尝试的应用程序。
Roboflow博客Brad Dwyer将带了解整个过程。