,谷歌在2月份发布了其Bard对话式AI后,一直在努力改进聊天机器人的回答,因为它在Twitter上首次亮相时就传播了错误信息。最近该公司将生成式AI功能添加到...
,谷歌在 2 月份发布了其 Bard 对话式 AI 后,一直在努力改进聊天机器人的回答,因为它在 Twitter 上首次亮相时就传播了错误信息。最近该公司将生成式 AI 功能添加到几乎所有服务中,而对 Bard 聊天机器人的访问仍然是少数人的专属。IT之家注意到,昨天一些 Pixel 用户收到了测试谷歌 Bard 的邀请,今天,该公司表示“开始开放对 Bard 的访问”。
就像 ChatGPT 或微软的 Bing 聊天一样,用户可以使用自然语言像与朋友交谈一样与 Bard 交谈。“你可以要求 Bard给你一些提示,以实现你今年阅读更多书籍的目标,用简单的术语解释量子物理学,或者通过概述博客文章来激发你的创造力”,Hsiao 和 Collins 写道。
两人还称,“Bard 是一个 LLM,我们认为它是对谷歌搜索的一种补充体验。” 根据公告中包含的屏幕截图,Bard 的界面看起来与 Bing AI 相当相似,但有几个关键区别。在每个回答下方,Bard提供了四个按钮:赞、踩、刷新和一个“Google it”的按钮。Bing AI 没有这些功能,而是使用回答下方的空间作为源引用区域。
虽然 Bing AI 基于 OpenAI 的 GPT-4 运行,但 Bard 是基于谷歌的 LaMDA 的“轻量化和优化版本”,该公司表示它“将随着时间推移更新更强大、更有能力的模型”。
屏幕底部输入栏也有几个区别。Bard 在末尾有一个麦克风符号,表明可能支持语音转文字功能 ,而 Bing 没有。同时,在文本输入栏左边微软提供了一个扫帚图标来开启新主题 ,谷歌的没有。值得注意的是,Bard 回答下方的细字中写道“Bard 可能会显示不准确或冒犯性的信息,这些信息不代表 Google 的观点。”
在公告中,谷歌也承认像 LaMDA 这样的大型语言模型并不完美,而且会出现错误。“例如,因为它们从反映现实世界偏见和刻板印象的各种信息中学习,所以有时这些信息会出现在它们的输出中”,Hsiao 和 Collins 写道。
他们甚至分享了一个 Bard 之前出错的例子。“当被要求分享一些简单室内植物的建议时,Bard 令人信服地提出了一些想法…… 但它也弄错了一些事情,比如 ZZ 植物的科学名称。”
谷歌表示,知道这样的挑战存在很重要,并指出质量和安全是需要考虑的重大问题。“我们还建立了一些防护措施,比如限制对话次数,以尽量保持交互有用且与主题相关”,Hsiao 和 Collins 写道。不过目前还不清楚对话次数的限制是多少。
尽管存在所有潜在的限制和错误可能性,谷歌仍然相信 Bard 值得付出努力,并补充说将“继续改进 Bard 并增加功能,包括编程、更多语言和多模态体验”。Hsiao 和 Collins 说,在撰写公告文章时,Bard 提供了帮助,包括创建大纲和建议编辑。