华盛顿——吉姆·达根(Jim Duggan)几乎每天都用ChatGPT为他在阿拉巴马州亨茨维尔的碳去除信用业务起草营销电子邮件。但他绝不会让人工智能聊天机器人向他提出任何有关即将到来的总统选举的问题。
这位68岁的政治保守派在接受采访时表示:“我只是不认为人工智能会产生真相。”“语法和词汇,这是具体的东西。政治思想、判断和观点却不是。”
根据美联社- norc公共事务研究中心和USAFacts的一项调查,达根和大多数美国人一样,不相信人工智能驱动的聊天机器人或搜索结果能给他们准确的答案。民意调查显示,大约三分之二的美国成年人表示,他们对这些工具提供可靠和真实的信息不是很有信心,或者根本没有信心。
调查结果显示,尽管美国人已经开始在个人和工作生活中使用生成式人工智能驱动的聊天机器人和搜索引擎,但大多数人仍然对这些快速发展的技术持怀疑态度。在涉及选举等高风险事件的信息时尤其如此。
今年早些时候,一群选举官员和人工智能研究人员发现,人工智能工具在被问及相对基本的问题时表现不佳,比如在哪里可以找到最近的投票站。上个月,几位国务卿警告说,为社交媒体平台X开发的人工智能聊天机器人正在传播虚假的选举信息,这促使X对该工具进行了调整,以便首先将用户引导到联邦政府网站获取可靠信息。
点击一个按钮就可以生成文本、图像、视频或音频剪辑的大型人工智能模型,人们对它们的理解很少,监管也很少。基于大量的数据,他们能够预测句子中最可能出现的下一个单词,这使他们能够对几乎任何话题提供复杂的回答,但这也使他们容易出错。
美国人是否认为人工智能的使用会使找到有关2024年大选的准确信息变得更加困难,这一问题上存在分歧。调查显示,大约40%的美国人表示,使用人工智能会使查找事实信息“困难得多”或“有些困难”,而另外40%的人则不确定——他们表示,人工智能不会使查找事实信息变得更容易或更具挑战性。有16%的人表示,人工智能将使人们更容易找到有关选举的准确信息。
21岁的格里芬·瑞恩(Griffin Ryan)是新奥尔良杜兰大学(Tulane University)的一名大学生,他说他不知道校园里有谁使用人工智能聊天机器人来查找候选人或投票的信息。他也没有使用它们,因为他注意到“基本上只是强迫AI工具给你想要的答案”是可能的。
这位来自德克萨斯州的民主党人说,他从CNN、BBC、NPR、《纽约时报》和《华尔街日报》等主流媒体获取新闻。当谈到即将到来的选举中的错误信息时,他更担心人工智能生成的深度假新闻和社交媒体上人工智能驱动的机器人账户会影响选民的意见。
“我看过人们用人工智能深度模仿政客之类的视频,这些都是明显的笑话,”瑞安说。“但当我看到有人可能会制造一些严重的事情并真正传播它时,我确实很担心。”
调查显示,相对较小的一部分美国人(8%)认为人工智能聊天机器人(如OpenAI的ChatGPT或Anthropic的Claude)产生的结果总是或经常基于事实信息。他们对必应(Bing)或谷歌(Google)等人工智能辅助搜索引擎也有类似程度的信任,12%的人认为他们的搜索结果总是或经常基于事实。
已经有人试图通过人工智能深度伪造来影响美国选民的意见,包括人工智能生成的机器人电话,模仿乔·拜登总统的声音,在1月份的新罕布什尔州初选中说服选民不要去投票。
更常见的是,人工智能工具被用来制作著名候选人的假图像,目的是强化特定的负面叙事——从穿着共产党制服的副总统卡玛拉·哈里斯到戴着手铐的前总统唐纳德·特朗普。
杜兰大学的学生瑞安说,他的家人对媒体相当了解,但他有一些年长的亲戚在大流行期间注意到了Facebook上关于COVID-19疫苗的虚假信息。他说,这让他担心他们可能会在选举周期中受到虚假或误导性信息的影响。
来自加州贝克斯菲尔德(Bakersfield)的71岁民主党人比弗利·哈里斯(Bevellie Harris)说,她更喜欢从政府官方渠道获得选举信息,比如每次选举前她都会收到邮寄来的选民小册子。
她说:“我认为这样能提供更多信息。”她还补充说,她也喜欢查看候选人的广告,听听他们自己的立场。
9.99美元/ moSubscribe