在计算机视觉领域,RoboflowTrain 和 Deploy 一直是推动技术进步的重要工具。最近,对这些工具进行了重大更新,将最新的计算机视觉研究成果和用户的反馈整合到新的训练和部署基础设施中。这些更新旨在简化机器学习流程,提高模型的准确性和推理速度。
自动化机器学习解决方案,如 Roboflow Train,其大部分价值来自于抽象和自动化机器学习决策(例如在训练期间是否以及如何退火模型的学习率)。尽管如此,有时候让用户能够选择他们的模型大小是有益的。决定允许用户选择他们的模型大小。
在 Roboflow Train 中,有两种训练选项。可以在这篇博客文章中了解更多关于模型大小权衡的信息:。
以前,Roboflow Train 只对付费的 Roboflow 客户开放,但现在可以使用 Train 积分来构建模型,只需几次点击。新用户将获得三个 Roboflow Train Fast 积分,在云 GPU 上进行训练。这意味着可以在做出任何决定之前试用 Roboflow Train 和 Roboflow Deploy。
如果对 Roboflow Train Accurate 感兴趣,请与销售团队联系以获取更多信息。
现在,RoboflowTrain 和 Deploy 的新版本已经发布,非常激动。一直在努力使计算机视觉更加简单和高效。对来说,这意味着跟上计算机视觉研究的步伐,倾听用户的问题,并在有更好的新方法时淘汰旧的例程。
在创建计算机视觉模型时,两个主要的关注点是模型的准确性和模型推理速度。通过新训练基础设施,大多数自定义任务将在建模准确性上看到改进。
在推理方面,新的RoboflowTrain Fast 模型为用户提供了在部署目标上加速推理速度的能力。
在部署硬件上,Roboflow 模型的相对推理速度 - 这些速度包括总服务器时间和网络延迟。
乍一看,这可能对 Hosted API 看起来不利。如果要将图像发送到互联网上以获得预测,为什么会这么慢?答案是吞吐量。
如果能够并行推断帧,Hosted Inference API 的高吞吐量允许大幅扩展。
由于托管 API 自动扩展到无限大(它会根据需求将模型传播到额外的机器上),可以并行向它发送许多图像,以获得仅受互联网连接限制的推理速度。可以在 GitHub 上的 Python 网络摄像头演示中看到这一点("async mode"),它使用托管 API 和一个小缓冲区以 30+ fps 的速度运行。
这也意味着模型可以为许多客户端提供服务,并处理高峰流量负载(包括可能在项目被 Hacker News 等平台推荐时看到的疯狂负载),这在没有 GPU 的情况下运行自己的硬件是非常困难的,而且大部分时间 GPU 都是闲置的。
在 Roboflow,一直在努力使计算机视觉更加简单和高效。对来说,这意味着跟上计算机视觉研究的步伐,倾听用户的问题,并在有更好的新方法时淘汰旧的例程。
很高兴发布 Roboflow Train 和 Deploy 的最新版本。