在本系列文章的最后一篇中,将回顾项目成果,并为未来的实时检测任务总结一些“经验教训”。
本系列文章涵盖了以下内容:
通过这些内容的学习,已经能够开发基于深度学习的TFLite模型,并将其实现在Android应用中以检测闪电。恭喜!
更令人兴奋的是,现在能够将相同的程序和逻辑应用于检测任何对象——只需要在适当的数据集上训练模型。这难道不令人惊叹吗?
假设想要检测狗。有很多可用的数据集可以用于这个类别。收集图像,然后训练模型,只需稍作调整——比如改变学习率和其他超参数,或者收集更大的数据集以提高模型的准确性。
现在,如果想要构建一个基于狗的检测和基于品种分类的应用,可以使用讨论过的相同概念进行分类。请参考的“获取标记对象信息”部分,看看如何可以训练模型以识别不同品种的类别。注意在监督模型训练期间使用的基于品种的类名作为标签。
如果想要构建一个具有更高级、互动性更强的UI的应用,可能会考虑保存实时流视频——请查看和,或者在社交媒体平台上分享它,向世界展示今天检测到了闪电——并且有证据!
在Android上所做的也可以在iOS上实现——请查看。还可以在iOS上创建。
项目可以以多种方式进行增强。例如,可以在增强现实-虚拟现实(ARVR),即混合现实(MR)中使用对象识别——请参见和。