从“低准确率”到99%成功:OpenAI的新工具能检测Deepfakes吗?

decrypt.co 2023-10-19 11:45:18

生成人工智能领域的先驱OpenAI正在迎接检测深度伪造图像的挑战,因为社交媒体上传播的误导性内容越来越普遍。在最近于加利福尼亚州拉古纳海滩举行的《华尔街日报》科技直播会议上,该公司首席技术官米拉·穆拉蒂推出了一种新的深度伪造探测器。

Murati表示,OpenAI的新工具在确定图片是否使用人工智能制作方面拥有“99%的可靠性”。

人工智能生成的图像可以包括一切,从教皇方济各(Pope Francis)穿着蓬松的巴黎世家(Balenciaga)外套等轻松的创作,到可能造成财务灾难的欺骗性图像。人工智能的潜力和陷阱显而易见。随着这些工具变得越来越复杂,区分真实的和人工智能生成的是一项挑战。

虽然该工具的发布日期尚不确定,但它的宣布引起了人们的极大兴趣,特别是考虑到OpenAI过去的努力。

2022年1月,该公司推出了一种文本分类器,据称该分类器将人类写作与机器生成的文本从ChatGPT等模型中区分开来。但到了7月,OpenAI悄悄关闭了该工具,并发布了一条更新消息,称其错误率高得令人无法接受。他们的分类器错误地将真正的人类写作标记为人工智能生成了9%的时间。

OpenAI悄悄关闭其AI检测工具

如果Murati的说法属实,这将是该行业的一个重要时刻,目前检测人工智能生成图像的方法通常不是自动化的。通常,爱好者们依靠直觉,专注于阻碍生成性人工智能的众所周知的挑战,比如描绘手、牙齿和图案。人工智能生成的图像和人工智能编辑的图像之间的区别仍然很模糊,尤其是当人们试图使用人工智能来检测人工智能时。

OpenAI不仅致力于检测有害的人工智能图像,它还设置了护栏来审查自己的模型,甚至超出了其内容指南中公开声明的范围。

正如_Decrypt_发现的那样,OpenAI的Dall-E工具似乎被配置为在没有通知的情况下修改提示,并在被要求生成特定输出时悄悄抛出错误,即使这些输出符合已发布的指南,并避免创建涉及特定名称、艺术家风格和种族的敏感内容。

[可能是Dalle-3在ChatGPT中的提示的一部分。来源:解密]可能是Dall-E 3在ChatGPT中的提示。来源:解密

认识帮助政府检测AI Deepfakes的公司

检测deepfakes不仅仅是OpenAI的一项努力。DeepMedia是一家开发这种能力的公司,专门与政府客户合作。

像微软和Adobe这样的大公司也在卷起袖子。他们推出了一种被称为“人工智能水印”的系统。这一机制由内容来源和真实性联盟(C2PA)推动,在语音气泡中加入了一个独特的“cr”符号,向人工智能生成的内容发出信号。该符号旨在充当透明的灯塔,允许用户辨别内容的来源。

然而,与任何技术一样,这并不是万无一失的。有一个漏洞,携带这个符号的元数据可以被剥离。然而,作为解药,Adobe还推出了一种云服务,能够恢复丢失的元数据,从而确保符号的存在。它也不难规避。

随着监管机构逐渐将deepfakes定为犯罪,这些创新不仅是技术壮举,也是社会必需品。OpenAI以及微软和Adobe等公司最近的举措突显了在数字时代确保真实性的集体努力。即使这些工具经过升级以提供更高程度的真实性,它们的有效实施也取决于广泛采用。这不仅涉及科技巨头,还涉及内容创作者、社交媒体平台和最终用户。

随着生成型人工智能的快速发展,检测器仍在努力区分文本、图像和音频的真实性。目前,人类的判断和警惕是我们防止人工智能滥用的最佳防线。然而,人类并非万无一失。持久的解决方案需要技术领导人、立法者和公众共同努力,驾驭这一复杂的新领域。

本文来源于 decrypt.co

免责声明:
1. 本文版权归属原作所有,仅代表作者本人观点,不代表币推儿的观点或立场。
2. 如发现文章、图片等侵权行为,侵权责任将由作者本人承担。