谷歌警告员工不要在ChatGPT竞赛中向巴德泄露机密

   日期:2024-12-17     来源:本站    作者:admin    浏览:103    
核心提示:      四位知情人士告诉路透社,Alphabet在全球推广聊天机器人的同时,也在提醒员工如何使用聊天机器人,包括自己的聊天机

  

  

  四位知情人士告诉路透社,Alphabet在全球推广聊天机器人的同时,也在提醒员工如何使用聊天机器人,包括自己的聊天机器人巴德。

  知情人士表示,谷歌已建议员工不要将其机密材料输入人工智能聊天机器人,该公司援引了长期以来的信息保护政策。

  包括Bard和ChatGPT在内的聊天机器人都是听起来像人类的程序,它们使用所谓的生成式人工智能与用户对话,并回答无数的提示。

  人类评审员可能会阅读聊天记录,研究人员发现,类似的人工智能可以复制它在训练期间吸收的数据,从而产生泄漏风险。

  一些知情人士说,Alphabet还提醒其工程师避免直接使用聊天机器人可以生成的计算机代码。

  在被问及对此的评论时,该公司表示,巴德可能会提出一些不受欢迎的代码建议,但它还是会帮助程序员。

  谷歌还表示,它的目标是对其技术的局限性保持透明。

  Bard AI web page is displayed

  这些担忧表明,谷歌希望避免其在与ChatGPT竞争中推出的软件对业务造成损害。

  谷歌与ChatGPT的支持者OpenAI和微软的竞争关系到数十亿美元的投资,以及新人工智能项目带来的尚未计算的广告和云收入。

  谷歌的谨慎也反映出企业正在成为一种安全标准,即警告员工不要使用公开的聊天程序。

  这些公司告诉路透社,全球越来越多的企业已经对人工智能聊天机器人设置了“护栏”,其中包括三星、亚马逊和德意志银行。

  据报道,苹果公司也回复了置评请求,但没有回复。

  Google logo

  社交网站Fishbowl对近1.2万名受访者(包括来自美国顶级公司的受访者)进行的一项调查显示,截至今年1月,约43%的专业人士正在使用ChatGPT或其他人工智能工具,而且往往没有告诉他们的老板。

  据Insider报道,到今年2月,谷歌告诉在发布前测试巴德的员工不要透露内部信息。

  现在,谷歌正在180多个国家以40种语言推出Bard,作为创造力的跳板,它的警告延伸到了代码建议上。

  谷歌告诉路透社,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。此前,Politico网站周二报道称,谷歌将推迟本周在欧盟的发布,等待更多有关聊天机器人对隐私影响的信息。

  

  这种技术可以起草电子邮件、文件,甚至软件本身,有望大大加快任务速度。然而,这些内容中可能包含错误信息、敏感数据,甚至是《哈利波特》小说中受版权保护的段落。

  6月1日更新的谷歌隐私声明也指出:“不要在与巴德的对话中包含机密或敏感信息。”

  一些公司已经开发了软件来解决这些问题。

  例如,保护网站免受网络攻击并提供其他云服务的Cloudflare正在推广一种功能,可以让企业标记和限制某些数据的外部流动。

  Bard AI logo and ChatGPT logo

  谷歌(Google)和微软(Microsoft)也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。

  Bard和ChatGPT的默认设置是保存用户的对话历史记录,用户可以选择删除。

  微软消费者业务首席营销官优素福?迈赫迪(Yusuf Mehdi)表示,公司不希望员工在工作中使用公共聊天机器人是“有道理的”。

  迈赫迪在解释微软免费的必应(Bing)聊天机器人与其企业软件的比较时说:“公司采取了适当的保守立场。”在那里,我们的政策要严格得多。”

  微软拒绝就是否全面禁止员工将机密信息输入公共人工智能项目(包括微软自己的项目)发表评论,不过微软另一名高管告诉路透社,他个人限制了这种使用。

  Cloudflare首席执行官马修?普林斯表示,在聊天机器人中输入机密信息,就像“让一群博士生随意进入你所有的私人记录”。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行