,谷歌昨天刚刚向英国和美国用户开放了旗下聊天机器人 Bard,基于谷歌 LaMDA 通用语言预训练大模型的轻量级优化版本,但是这款机器人在公开测试的第一天就出现了一个尴尬的错误,有用户问它多久会被谷歌关闭,它错误地回答称自己已经被谷歌关闭了。
聊天机器人的回答出现事实错误并不新鲜,这也是目前此类大语言模型的主要问题之一,而且谷歌昨天也直截了当地说 Bard 的回答将包含事实错误,那为什么还报道这个消息呢?并不是要故意挑 Bard 的毛病,而是这个错误比较有意思。
谷歌也承认 Bard 会包含一些事实错误,因为它是从网上获取信息的,微软的新必应也有类似的问题。这个问题是基于大语言模型的人工智能所面临的最大挑战之一,随着时间的推移,谷歌和微软都会改进获取信息的过程,但偶尔还是会出现一些问题。此外,Bard 还处于预览阶段,所以还需要经过更多的公众测试。
不过IT之家认为,如何让这些聊天机器人更好地辨别虚假消息,是这些科技巨头需要严肃考虑的问题。
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。