作者:奇拉格·沙阿 , 对话
如果你最近使用过谷歌,并且幸运地(或不幸地)遇到了你的查询的答案而不是一堆链接,那么你已经受到了所谓的人工智能概述的影响。这是谷歌一直在推出的一项新核心功能,自该公司于 2021 年试验其 LaMDA 大型语言模型以来,以及自 OpenAI 的 ChatGPT 人工智能聊天机器人于 2023 年迅速崛起以来,这一举措就受到广泛期待。
此功能是对越来越多的附加组件和工具集成到 Google 等搜索引擎中的又一个补充。一些值得注意的示例包括知识图驱动的知识面板(用于在搜索结果旁边的信息框中填充相关事实信息)和特色片段(从搜索结果中摘录并在指向该页面的链接之前提供)。
但人工智能概述的不同之处在于,它们不是简单地从相关来源中提取的,而是由谷歌的生成式人工智能技术在幕后生成的。该公司的目标是为您提供个性化的按需答案,而不是一组标准文档,甚至是与您的查询相匹配的答案框。
这看起来几乎很神奇,并且在许多情况下都可能有用。毕竟,人们使用搜索引擎主要是为了查找答案而不是文档列表。但图片中还有更多内容。
我和我的同事 Emily Bender 撰写了有关搜索引擎用户需要、想要和拥有什么的文章。我们已经表明,他们不仅需要信息,还需要发现、学习和质疑所发现内容的能力。换句话说,用户有各种各样的情况和目标,将它们压缩为一组链接,或者更糟糕的是,单个答案是有问题的。
不好的建议
这些人工智能功能从互联网和其他可用来源中收集信息,并根据它们如何训练关联单词来给出答案。反对它们的一个核心论点是,它们基本上消除了用户的判断、代理和学习机会。
这对于许多搜索来说可能没问题。想要了解过去五年通货膨胀如何影响杂货价格,或者了解欧盟人工智能法案的内容摘要?人工智能概述可以成为剖析大量文档并提取具体答案的好方法。
但人们的搜索需求并不仅仅限于事实信息。他们寻找想法、意见和建议。正在寻找有关如何防止奶酪从披萨上滑落的建议?谷歌会告诉你应该在酱汁中添加一些胶水。或者想知道拿着剪刀跑步是否对健康有好处?当然,谷歌会说,“它还可以改善你的毛孔,给你力量”。
虽然理性的用户可以理解这种离谱的答案可能是错误的,但对于事实问题却很难发现这一点。
例如,在研究美国总统的信仰时,谷歌的人工智能概览给出了巴拉克·奥巴马是穆斯林的错误答案。这种错误信息几年前就被广泛传播并被揭穿,但谷歌却重复了它,但没有好的方法让用户知道它是错误信息。
假设一个学生使用 Google 做作业并询问非洲哪些国家以字母 K 开头?虽然肯尼亚确实符合这一标准,但谷歌的人工智能概述错误地回答说不存在这样的国家。
谷歌已经承认人工智能概述存在问题,并表示已经解决了这些问题。但问题仍然存在:您真的能相信通过这项服务收到的任何答案吗?
由...提供 对话
本文根据知识共享许可从 The Conversation 重新发布。阅读原文。