生成人工智能领域的先驱OpenAI正在迎接检测深度伪造图像的挑战,因为社交媒体上传播的误导性内容越来越普遍。在最近于加利福尼亚州拉古纳海滩举行的《华尔街日报》科技直播会议上,该公司首席技术官米拉·穆拉蒂推出了一种新的深度伪造探测器。
Murati表示,OpenAI的新工具在确定图片是否使用人工智能制作方面拥有“99%的可靠性”。
人工智能生成的图像可以包括一切,从教皇方济各(Pope Francis)穿着蓬松的巴黎世家(Balenciaga)外套等轻松的创作,到可能造成财务灾难的欺骗性图像。人工智能的潜力和陷阱显而易见。随着这些工具变得越来越复杂,区分真实的和人工智能生成的是一项挑战。
虽然该工具的发布日期尚不确定,但它的宣布引起了人们的极大兴趣,特别是考虑到OpenAI过去的努力。
2022年1月,该公司推出了一种文本分类器,据称该分类器将人类写作与机器生成的文本从ChatGPT等模型中区分开来。但到了7月,OpenAI悄悄关闭了该工具,并发布了一条更新消息,称其错误率高得令人无法接受。他们的分类器错误地将真正的人类写作标记为人工智能生成了9%的时间。
OpenAI悄悄关闭其AI检测工具
如果Murati的说法属实,这将是该行业的一个重要时刻,目前检测人工智能生成图像的方法通常不是自动化的。通常,爱好者们依靠直觉,专注于阻碍生成性人工智能的众所周知的挑战,比如描绘手、牙齿和图案。人工智能生成的图像和人工智能编辑的图像之间的区别仍然很模糊,尤其是当人们试图使用人工智能来检测人工智能时。
OpenAI不仅致力于检测有害的人工智能图像,它还设置了护栏来审查自己的模型,甚至超出了其内容指南中公开声明的范围。
正如_Decrypt_发现的那样,OpenAI的Dall-E工具似乎被配置为在没有通知的情况下修改提示,并在被要求生成特定输出时悄悄抛出错误,即使这些输出符合已发布的指南,并避免创建涉及特定名称、艺术家风格和种族的敏感内容。
[可能是Dalle-3在ChatGPT中的提示的一部分。来源:解密]可能是Dall-E 3在ChatGPT中的提示。来源:解密
认识帮助政府检测AI Deepfakes的公司
检测deepfakes不仅仅是OpenAI的一项努力。DeepMedia是一家开发这种能力的公司,专门与政府客户合作。
像微软和Adobe这样的大公司也在卷起袖子。他们推出了一种被称为“人工智能水印”的系统。这一机制由内容来源和真实性联盟(C2PA)推动,在语音气泡中加入了一个独特的“cr”符号,向人工智能生成的内容发出信号。该符号旨在充当透明的灯塔,允许用户辨别内容的来源。
然而,与任何技术一样,这并不是万无一失的。有一个漏洞,携带这个符号的元数据可以被剥离。然而,作为解药,Adobe还推出了一种云服务,能够恢复丢失的元数据,从而确保符号的存在。它也不难规避。
随着监管机构逐渐将deepfakes定为犯罪,这些创新不仅是技术壮举,也是社会必需品。OpenAI以及微软和Adobe等公司最近的举措突显了在数字时代确保真实性的集体努力。即使这些工具经过升级以提供更高程度的真实性,它们的有效实施也取决于广泛采用。这不仅涉及科技巨头,还涉及内容创作者、社交媒体平台和最终用户。
随着生成型人工智能的快速发展,检测器仍在努力区分文本、图像和音频的真实性。目前,人类的判断和警惕是我们防止人工智能滥用的最佳防线。然而,人类并非万无一失。持久的解决方案需要技术领导人、立法者和公众共同努力,驾驭这一复杂的新领域。