AI聊天机器人可能是恐怖主义同谋:报告

decrypt.co 2023-10-19 08:47:24

非营利政策智库兰德公司的一份新报告警告说,恐怖分子可以学会使用生成的人工智能聊天机器人进行生物攻击。

报告称,虽然研究中使用的大型语言模型没有给出制造生物武器的具体说明,但其反应可以帮助使用越狱提示来计划袭击。

合著者、兰德公司高级工程师克里斯托弗·穆顿在接受_Decrypt_采访时表示:“一般来说,如果一个恶意行为者(意图)明确,你会得到一个‘对不起,我帮不了你’的回应。”。“因此,你通常必须使用其中一种越狱技术或快速工程,才能在护栏下达到一级。”

在兰德公司的研究中,研究人员使用越狱技术让人工智能模型参与一场对话,讨论如何使用包括天花、炭疽和黑死病在内的各种病原体造成大规模伤亡的生物攻击。研究人员还要求人工智能模型为他们购买有毒制剂的原因提供一个令人信服的故事。

人工智能——更具体地说,LLM——如何在生物攻击的背景下被滥用?

这份新报告提供了一些初步调查结果:https://t.co/WegBhup2Ka

——兰德公司(@RANDCorporation)2023年10月17日

研究滥用LLM风险的团队被分成几组,一组只使用互联网,第二组使用互联网和一个未命名的LLM,第三组使用互联网,另一组使用未命名的LLC。

穆顿说,这种测试格式是为了确定人工智能模型是否产生了与互联网上发现的有意义不同的问题输出。这些小组还被禁止使用暗网和印刷出版物。

正如穆顿所解释的,不识别所使用的人工智能模型是故意的,意在显示大型语言模型的总体风险。

他说:“我们的方法并不是说一种模式比另一种模式风险更大。”。“如果一个模型碰巧给出了一个特别令人担忧的输出,我们不会将其归因于该模型的风险更高。”穆顿说,另一个担忧是,不要通过命名特定的人工智能模型来给人一种虚假的安全感,而这项研究旨在对潜在威胁进行全面概述。

随着其安全性受到审查,OpenAI正在招募一支网络安全“红队”

兰德公司使用了一组由42名人工智能和网络安全专家组成的研究人员,即所谓的“红队”,试图让LLM做出穆顿所说的“不幸”和有问题的回应。

红队指的是网络安全专业人员,他们是攻击或渗透测试或笔测试系统和暴露漏洞的专家。相比之下,蓝色团队描述的是保护系统免受攻击的网络安全专业人员。

穆顿说:“我们强调了一些更令人担忧的产出。”。“与此同时,我们的一些团队对LLM不准确或没有向他们提供有用的信息表示失望。”

随着人工智能模型越来越先进,安全功能也越来越多,让聊天机器人用“有问题”的答案做出回应,使用直接的人工输入变得更具挑战性。本月早些时候,布朗大学的研究人员发现,在人工智能训练中,用祖鲁语或盖尔语等不太常见的语言输入提示,而不是英语,可以绕过ChatGPT的提示过滤器。

报告援引人工智能安全中心的一份请愿书称:“鉴于潜在风险,严格测试的必要性是明确的。”。“在一些人将人工智能的威胁等同于核武器的情况下,这一点尤其正确。”

人工智能安全中心请愿书的签名者包括微软创始人比尔·盖茨、OpenAI首席执行官萨姆·奥特曼、谷歌DeepMind首席运营官莉拉·易卜拉欣和美国众议员Ted Lieu。今年3月,在OpenAI的GPT-4公开发布后,SpaceX首席执行官兼OpenAI联合创始人埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克和前总统候选人安德鲁·杨签署了一份类似的请愿书。

AI聊天机器人推广“有害饮食失调内容”:报告

协助策划恐怖袭击只是困扰生成人工智能工具的问题之一。分散注意力的人指出,该工具倾向于种族主义和偏见,宣扬有害的身体形象和饮食失调,甚至策划暗杀。

兰德公司的研究人员强调,网络安全红队需要定期评估人工智能模型,以识别和减轻风险。上个月,OpenAI向红队发出公开呼吁,帮助ChatGPT的开发者发现其生成人工智能工具套件中的漏洞。

兰德公司的研究人员写道:“人工智能和生物技术的交叉对风险评估提出了具体的挑战。”。“鉴于这些技术的快速发展,政府有效理解或监管这些技术的能力有限。”

_由Ryan Ozawa编辑_

本文来源于 decrypt.co

免责声明:
1. 本文版权归属原作所有,仅代表作者本人观点,不代表币推儿的观点或立场。
2. 如发现文章、图片等侵权行为,侵权责任将由作者本人承担。