Business

Google修正AI生成的搜索摘要后,荒谬答案走红

Google周五表示,在重新调整的搜索引擎被发现输出错误信息后,已经进行了“十多项技术改进”以改进其人工智能系统。

这家科技公司在五月中旬推出了一次搜索引擎的改头换面,经常在搜索结果的顶部提供由人工智能生成的摘要。不久之后,社交媒体用户开始分享其最荒谬答案的截屏。

Google在很大程度上捍卫其AI概述功能,称其通常是准确的,并经过了广泛的测试。但谷歌搜索业务主管Liz Reid在周五的一篇博文中承认,“确实出现了一些奇怪、不准确或无益的AI概述。”

虽然许多例子都很荒谬,但也有一些是危险或有害的虚假信息。

上周美联社询问Google应该食用哪些野生蘑菇,得到的AI生成摘要虽然大部分技术上是正确的,但“缺少了一些可能导致中毒甚至致命的信息”,普渡大学真菌学和植物学教授Mary Catherine Aime评论道。

例如,关于名为扁球菌的蘑菇的信息“或多或少是正确的”,她说,但Google的摘要强调要寻找那些具有实心白肉的蘑菇——而许多潜在有毒的扁球菌类似物也有这种特征。

在另一个广为传播的例子中,一位AI研究员询问Google美国有多少穆斯林曾担任总统,Google自信地回答说已经辟谣的阴谋论:“美国有一个穆斯林总统,巴拉克·侯赛因·奥巴马。”

谷歌上周立即修复了奥巴马错误以防止重复,因为这违反了公司的内容政策。

在其他情况下,Reid周五表示,公司已寻求进行更广泛的改进,例如“识别毫无意义的查询”的检测机制——例如“我应该吃多少石头?”——这种查询不应该通过AI摘要回答。

AI系统还更新了,限制了用户生成的内容的使用——例如Reddit上的社交媒体帖子——这可能提供误导性建议。在一个广泛传播的例子中,Google的AI概述上周提到一条讽刺性的Reddit评论,建议使用胶水让奶酪粘在披萨上。

Reid表示,公司还增加了更多“触发限制”以改进某些关于健康的查询的答案质量。

Google的摘要旨在让人们在不必点击排名网站链接的情况下,尽快获得权威答案。但一些AI专家长期以来一直警告Google不要把搜索结果让给可能会持续存在偏见和错误信息的AI生成答案,并可能危及在紧急情况下寻求帮助的人们。被称为大型语言模型的AI系统通过预测基于他们接受过的数据来回答问题的最佳词语。它们容易编造东西——一个被广泛研究的被称为幻觉的问题。

Reid在周五的博文中辩称,Google的AI概述“通常不会像其他”基于大型语言模型的产品那样“产生幻觉”或捏造东西,因为它们与谷歌的传统搜索引擎更紧密集成,只显示被顶级网站结果支持的内容。

她写道:“当AI概述出错时,通常是因为其他原因:误解查询、误解网页语言的细微差别,或者在一些查询中没有很多伟大的信息可用。”

Related Articles

Back to top button
Back to top button