首页 > 技术知识 > 正文

英特尔公司声称,他们已经开发出一种人工智能模型,可以通过寻找颜色的细微变化,实时检测视频是否使用了深度造假技术。如果拍摄对象是一个活生生的人,这种细微变化就会很明显。

英特尔表示,它可以实时从深度伪造中分辨出真人-英特尔sgx技术

这家芯片制造巨头声称,FakeCatcher能够在毫秒内返回结果,准确率高达96%。

近年来,人们一直对所谓的深度伪造视频感到担忧,这种视频使用人工智能算法生成虚假的人物镜头。主要的担忧集中在它可能被用来让政客或名人看起来在发表声明或做他们实际上没有说过或做过的事情。

“深度造假视频现在到处都是。你可能已经看过了;名人做了或说了他们从未做过的事情的视频,”英特尔实验室的研究科学家Ilke Demir说。它不仅影响了名人,甚至普通市民也成为了受害者。

据这家芯片制造商称,一些基于深度学习的探测器会分析原始视频数据,试图找到可以识别出视频是假的泄密迹象。相比之下,FakeCatcher采取了不同的方法,包括分析真实视频中的视觉线索,以表明主题是真实的。

这包括视频像素颜色的细微变化,这是由于心脏将血液泵入全身而引起的。英特尔表示,这些血流信号被收集到面部各处,算法将这些信号转化为时空地图,使深度学习模型能够检测视频的真假。据称,一些检测工具需要上传视频内容进行分析,然后等待数小时才能得到结果。

然而,只要有足够的时间和资源,任何有动机制作虚假视频的人都有可能开发出可以骗过FakeCatcher的算法,这并不是不可能的。

在开发FakeCatcher时,英特尔自然大量使用了自己的技术,包括用于优化深度学习模型的OpenVINO开源工具包和用于处理实时图像和视频的OpenCV。开发团队还使用开放可视云平台为英特尔的至强可扩展处理器提供集成软件堆栈。FakeCatcher软件可以在第3代至强可扩展处理器上同时运行多达72种不同的检测流。

英特尔表示,FakeCatcher有几个潜在的用途,包括防止用户向社交媒体上传有害的深度伪造视频,以及帮助新闻机构避免播放被篡改的内容。

猜你喜欢