神经网络模型与图像识别技术

图像识别技术的新进展

人工智能领域,神经网络模型的应用日益广泛,特别是在图像识别领域。最近,研究人员发现可以将NeuralHash模型转换为ONNX格式,并逆向工程一个哈希碰撞,即创建一个与真实图像具有相同哈希值的人工图像。这两张图像在苹果的NeuralHash算法看来是完全相同的。这引发了一个问题,攻击者可能会人为地创建看似无害的图像,诱使苹果的代码错误地将其检测为CSAM(儿童性虐待材料)。尽管苹果在通知当局之前会由人工审核这些图像,但这可能会使他们的人工审核队列充斥着垃圾图像。

虽然在实际操作中,这可能并不是苹果面临的问题,但这种可能性引起了人们的关注。例如,OpenAI的CLIP模型,它与NeuralHash的工作方式相似,使用神经网络从图像中提取一组特征向量,映射到图像的内容。但CLIP的不同之处在于,它是一个通用模型,能够将图像和文本之间建立映射。这意味着可以使用它来提取关于图像的人类可理解信息。

为了验证这一点,运行了上述两个碰撞图像通过CLIP,看看它是否也被愚弄了。简短的答案是:它没有。这意味着苹果可以应用类似CLIP的第二个特征提取器网络来检测CSAM图像,以确定它们是真实还是伪造的。要生成同时欺骗两个网络的图像将更加困难。

为了回答这个问题,编写了一个脚本,比较了英语中最常用的10,000个单词的特征向量与从上述两张图像中提取的特征向量。对于真实的图像(狗的图像),CLIP给出的10个最接近的英文单词是:lycos、dog、max、duke、franklin、duncan、tex、oscar、aj、carlos。而对于伪造的图像,最接近的单词是:generated、ir、computed、lcd、tile、canvas、gray、latitude、sequences、negative。

正如所见,CLIP并没有被愚弄。苹果可以要求类似的网络向CLIP提出问题,比如:“这是一张生成的图像吗?”和“这是一张CSAM图像吗?”,并使用它的答案作为在标记它离开手机并进行人工审核之前的一个理智检查。

这并不是说CSAM是万无一失的(甚至从一开始就是一个好主意),但针对这种特定的NeuralHash碰撞漏洞,确实存在一些变通方法,这意味着它还没有完全失效。苹果,如果需要帮助使用CLIP,可以联系!

沪ICP备2024098111号-1
上海秋旦网络科技中心:上海市奉贤区金大公路8218号1幢 联系电话:17898875485