谷歌CEO承认「AI搜索摘要」服务存在“AI幻觉”问题:如果用户刻意引导AI错误回复,目前尚无如何解决方案

互联网5月27日报道丨在近日,谷歌为旗下搜索业务新推出的“AI摘要”(AI Overviews)功能可谓备受诟病,原因是该功能经常提供严

互联网5月27日报道丨在近日,谷歌为旗下搜索业务新推出的“AI摘要”(AI Overviews)功能可谓备受诟病,原因是该功能经常提供严重错误的搜索结果信息。

比如,当输入「奶酪不粘在披萨上」时,AI 搜索概述功能给出的答案是「酱汁中加入大约 1/8 杯无毒胶水」;而当用户提问「我每天应该吃多少块石头」时,该工具的回答为「根据加州大学伯克利分校地质学家的说法,人们每天应该至少吃一块小石头」,同时列出了其维生素和消化益处。

谷歌通过媒体端回应称,针对近期出现的“AI摘要”(AI Overviews)给出的重大事实错误内容,将会继续改进相关算法进行修正。

在上周四,据 The Verge 报道,谷歌 CEO 桑达尔・皮查伊在接受采访时承认,这些“AI摘要”功能产生的“AI幻觉”现象,是目前所有大型语言模型(LLM)的固有缺陷,这是 Transformer 架构的大模型目前面临的共同弊端。而大型语言模型正是谷歌此次推出的“AI摘要”功能的核心技术。

皮查伊坦率地表示,这个问题目前“尚无解决方案”(is still an unsolved problem)。

这意味着尽管谷歌工程师一直在努力修复“AI 摘要”功能出现的各种奇怪且严重错误的答案,但此类问题仍会持续出现。

然而,皮查伊似乎有意在淡化了这些错误的严重性。

他表示:“AI摘要功能有时会出错,但这并不意味着它没有用处。我认为这并不是看待该功能的正确方式。我们取得了进展吗?是的,肯定有。与去年相比,我们在AI生成文本的事实准确性方面取得了很大的进步。整个行业都在改进幻觉问题,但问题从本质上还没有完全解决。”

尽管“劈柴哥”对此负面表现轻松,但是外界对于这家科技巨头无法给出错误的解决方案,引起了轩然大波,许多用户纷纷展示了该功能生成各种错误信息的例子。这进一步损害了谷歌搜索引擎的信誉,谷歌搜索此前就因向用户提供垃圾结果而备受诟病。

标签: 谷歌 AI搜索