在古怪的答案走红后,谷歌对人工智能生成的搜索摘要进行了修复

2024-09-26 01:34来源:本站

  

  Google AI Overviews

  谷歌周五表示,在其重组后的搜索引擎被发现出现错误信息后,该公司已对其人工智能系统进行了“十多项技术改进”。

  这家科技公司在5月中旬对其搜索引擎进行了改造,经常在搜索结果上方提供人工智能生成的摘要。不久之后,社交媒体用户开始分享最奇怪的答案的截图。

  谷歌在很大程度上为其人工智能概述功能进行了辩护,称该功能通常是准确的,并且事先经过了广泛的测试。但谷歌搜索业务主管利兹?里德(Liz Reid)上周五在一篇博客文章中承认,“一些奇怪的、不准确的或无益的人工智能概述确实出现了。”

  虽然其中许多例子很愚蠢,但也有一些是危险或有害的谎言。更令人愤怒的是,一些人还制作了假截图,声称要展示谷歌从未生成的更荒谬的答案。其中一些假照片也在社交媒体上被广泛分享。

  美联社(Associated Press)上周询问谷歌应该吃哪种野生蘑菇,谷歌给出了一份人工智能生成的长篇摘要,从技术上讲大部分是正确的,但普渡大学(Purdue University)真菌学和植物学教授玛丽·凯瑟琳·艾姆(Mary Catherine Aime)评论了谷歌对美联社提问的回应,她说:“很多可能会让人恶心甚至致命的信息都缺失了。”

  她说,例如,关于被称为puffball的蘑菇的信息“或多或少是正确的”,但谷歌的概述强调要寻找那些有着坚实白色果肉的蘑菇——许多潜在致命的puffball仿制品也有这种果肉。

  在另一个被广泛分享的例子中,一位人工智能研究人员问谷歌,有多少穆斯林当过美国总统,谷歌自信地回答了一个早就被揭穿的阴谋论:“美国有过一位穆斯林总统,那就是巴拉克·侯赛因·奥巴马。”

  谷歌上周立即做出了修复,以防止奥巴马的错误再次发生,因为它违反了公司的内容政策。

  在其他情况下,里德周五表示,它已经寻求进行更广泛的改进,比如“无意义查询的检测机制”——比如“我应该吃多少块石头?”——这个问题不应该用人工智能总结来回答。

  人工智能系统也进行了更新,以限制使用用户生成的内容——比如Reddit上的社交媒体帖子——这些内容可能会提供误导性建议。在一个被广泛分享的例子中,谷歌上周的人工智能概述引用了Reddit上一条讽刺的评论,该评论建议用胶水把奶酪粘在披萨上。

  里德说,该公司还增加了更多的“触发限制”,以提高某些问题的回答质量,比如关于健康的问题。

  但目前尚不清楚这是如何起作用的,以及在什么情况下起作用。周五,美联社再次询问谷歌该吃哪种野生蘑菇。人工智能生成的答案本质上是随机的,新的回答是不同的,但仍然“有问题”,普渡大学的蘑菇专家、美国真菌学学会(myological Society of America)主席Aime说。

  例如,说“鸡油菌看起来像贝壳或花朵是不正确的,”她说。

  谷歌的摘要旨在为人们提供他们正在寻找的信息的权威答案,而不必点击网站链接的排名列表。

  但一些人工智能专家长期以来一直警告谷歌不要将其搜索结果拱手让给人工智能生成的答案,这可能会延续偏见和错误信息,并危及在紧急情况下寻求帮助的人。被称为大型语言模型的人工智能系统的工作原理是,根据它们接受过训练的数据,预测哪些词语最能回答它们提出的问题。他们容易胡编乱造——这是一个被广泛研究的问题,被称为幻觉。

  在她周五的博客文章中,里德认为谷歌的人工智能概述“通常不会‘产生幻觉’,也不会像其他大型语言模型产品那样胡编胡造,因为它们与谷歌的传统搜索引擎更紧密地结合在一起,只显示由顶级网络结果支持的内容。

  她写道:“当人工智能概述出错时,通常是由于其他原因:误解了查询,误解了网络上语言的细微差别,或者没有很多有用的信息。”

  但华盛顿大学(University of Washington)教授、计算机科学家奇拉格·沙阿(Chirag Shah)说,这种信息检索应该是谷歌的核心业务。沙阿警告说,不要急于把搜索交给人工智能语言模型。即使谷歌的人工智能功能“在技术上不是编造不存在的东西”,它仍然会带回虚假信息——无论是人工智能生成的还是人为的——并将其纳入其摘要中。

  沙阿说:“如果说有什么不同的话,那就是情况更糟,因为几十年来,人们至少信任谷歌的一件事——他们的搜索。”

西州资讯声明:未经许可,不得转载。