四位知情人士告诉路透社,Alphabet在全球推广聊天机器人的同时,也在提醒员工如何使用聊天机器人,包括自己的聊天机器人巴德。
知情人士表示,谷歌已建议员工不要将其机密材料输入人工智能聊天机器人,该公司援引了长期以来的信息保护政策。
包括Bard和ChatGPT在内的聊天机器人都是听起来像人类的程序,它们使用所谓的生成式人工智能与用户对话,并回答无数的提示。
人类评审员可能会阅读聊天记录,研究人员发现,类似的人工智能可以复制它在训练期间吸收的数据,从而产生泄漏风险。
一些知情人士说,Alphabet还提醒其工程师避免直接使用聊天机器人可以生成的计算机代码。
在被问及对此的评论时,该公司表示,巴德可能会提出一些不受欢迎的代码建议,但它还是会帮助程序员。
谷歌还表示,它的目标是对其技术的局限性保持透明。
这些担忧表明,谷歌希望避免其在与ChatGPT竞争中推出的软件对业务造成损害。
谷歌与ChatGPT的支持者OpenAI和微软的竞争关系到数十亿美元的投资,以及新人工智能项目带来的尚未计算的广告和云收入。
谷歌的谨慎也反映出企业正在成为一种安全标准,即警告员工不要使用公开的聊天程序。
这些公司告诉路透社,全球越来越多的企业已经对人工智能聊天机器人设置了“护栏”,其中包括三星、亚马逊和德意志银行。
据报道,苹果公司也回复了置评请求,但没有回复。
社交网站Fishbowl对近1.2万名受访者(包括来自美国顶级公司的受访者)进行的一项调查显示,截至今年1月,约43%的专业人士正在使用ChatGPT或其他人工智能工具,而且往往没有告诉他们的老板。
据Insider报道,到今年2月,谷歌告诉在发布前测试巴德的员工不要透露内部信息。
现在,谷歌正在180多个国家以40种语言推出Bard,作为创造力的跳板,它的警告延伸到了代码建议上。
谷歌告诉路透社,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。此前,Politico网站周二报道称,谷歌将推迟本周在欧盟的发布,等待更多有关聊天机器人对隐私影响的信息。
这种技术可以起草电子邮件、文件,甚至软件本身,有望大大加快任务速度。然而,这些内容中可能包含错误信息、敏感数据,甚至是《哈利波特》小说中受版权保护的段落。
6月1日更新的谷歌隐私声明也指出:“不要在与巴德的对话中包含机密或敏感信息。”
一些公司已经开发了软件来解决这些问题。
例如,保护网站免受网络攻击并提供其他云服务的Cloudflare正在推广一种功能,可以让企业标记和限制某些数据的外部流动。
谷歌(Google)和微软(Microsoft)也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。
Bard和ChatGPT的默认设置是保存用户的对话历史记录,用户可以选择删除。
微软消费者业务首席营销官优素福?迈赫迪(Yusuf Mehdi)表示,公司不希望员工在工作中使用公共聊天机器人是“有道理的”。
迈赫迪在解释微软免费的必应(Bing)聊天机器人与其企业软件的比较时说:“公司采取了适当的保守立场。”在那里,我们的政策要严格得多。”
微软拒绝就是否全面禁止员工将机密信息输入公共人工智能项目(包括微软自己的项目)发表评论,不过微软另一名高管告诉路透社,他个人限制了这种使用。
Cloudflare首席执行官马修?普林斯表示,在聊天机器人中输入机密信息,就像“让一群博士生随意进入你所有的私人记录”。