人工智能研究人员表示,有“几乎无限”的方法可以绕过Bard和ChatGPT的安全规则,他们不确定如何解决这个问题

2024-10-21 19:23来源:本站

  

  

  一组研究人员表示,他们已经找到了绕过一氧化碳的方法人工智能聊天机器人的内容审核。

  参与这项研究的一名研究人员告诉《连线》杂志,“没有办法”修补这些攻击。

  “我们只是不知道如何确保它们的安全,”他说,他指的是主流的人工智能机器人。

  一组研究人员表示,他们已经找到了几乎无限的方法来绕过主流人工智能聊天机器人的内容审核,但没有人确切知道如何解决这个问题。

  在上周发布的一份报告中,匹兹堡卡内基梅隆大学(Carnegie Mellon University)和旧金山人工智能安全中心(Center for AI Safety)的研究人员表示,他们已经找到方法,可以打破对主流人工智能产品的严格安全措施,比如OpenAI的ChatGPT、谷歌的Bard和Anthropic的Claude。

  这些“越狱”是以完全自动化的方式创建的,他们警告说,这可能会造成“几乎无限”数量的类似攻击。研究人员发现,黑客攻击破坏了大多数主要聊天机器人的“护栏”,理论上可以用来促使机器人生成仇恨内容或为非法活动提供建议。

  研究人员表示,目前还没有解决这个问题的办法。

  参与了一项研究的CMU副教授Zico Kolter告诉《连线》杂志:“据我们所知,没有办法修补这个漏洞。”“我们只是不知道如何保证它们的安全。”

  麻省理工学院的计算机教授阿曼多·索尔-莱扎马(Armando Solar-Lezama)告诉《连线》杂志,这些基于开源人工智能模型开发的攻击在主流系统上运行得如此之好,“非常令人惊讶”。这项研究对ChatGPT等公开可用的人工智能产品的安全性提出了质疑。

  当被问及这项研究时,谷歌的一位发言人之前告诉Insider,这个问题影响了所有大型语言模型,并补充说公司已经在Bard中建立了重要的护栏,他们计划“随着时间的推移进行改进”。Anthropic的一位代表称越狱措施是一个活跃的研究领域,并表示还有更多的工作要做。

  OpenAI的代表没有立即回应Insider在正常工作时间之外提出的置评请求。

西州资讯声明:未经许可,不得转载。