谷歌的生成式人工智能失败会逐渐破坏用户信任。(谷歌人工智能最新突破!可能是人类文明史的终结)

据6月2日消息,据外电报道,对于谷歌来说,这是一个忙碌的阵亡将士纪念日周末,因为该公司正在努力控制其搜索平台的新人工智能概览功能带来的大量不合理建议所带来的影响。

AI Overview 旨在为搜索查询提供基于 AI 的生成性响应。通常情况下,它确实会这样做。但上周,它还告诉用户,他们可以使用无毒胶水来防止奶酪从披萨上滑落,他们每天可以吃一块石头,并声称巴拉克·奥巴马是第一位穆斯林总统。

谷歌对此作出回应,删除了这些回复,并表示正在利用这些错误来改进其系统。但这些事件,加上谷歌灾难性的 Gemini 图像生成器发布,导致该应用程序生成了历史上不准确的图像,可能会严重损害这家搜索巨头的信誉。

谷歌对此作出回应,删除了这些回复,并表示正在利用这些错误来改进其系统。然而,这些事件加上谷歌灾难性的Gemini图像生成器发布,导致该应用程序生成了历史上不准确的图像,可能会对这家搜索巨头的声誉造成严重损害。

「谷歌应该是互联网上最重要的信息来源之一。」纽约大学坦登工程学院计算机科学与工程副教授 Chinmay Hegde 解释道。「如果该产品被忽视或减弱,它将逐渐削弱我们对谷歌的信任。」

谷歌的人工智能(AI)概览问题并不是该公司自从开始使用生成式AI驱动以来第一次遇到困难。该公司的Bard聊天机器人(谷歌于2月将其更名为Gemini)在2023年2月的宣传视频中出现了一个错误,这导致谷歌的股价下跌。

然后还有它的Gemini 图像生成器软件,它可以生成不准确场景中不同群体的照片,包括1943年的德国士兵。

然后还有它的Gemini 图像生成器软件,它可以生成不准确场景中不同群体的照片,包括1943年的德国士兵。这个软件可以通过算法和图像处理技术,生成逼真的德国士兵照片,让人们可以更好地了解和研究历史事件。

人工智能一直存在偏见,谷歌试图通过在生成人物图像时纳入更广泛的种族多样性来克服这一问题。但该公司矫枉过正,软件最终拒绝了一些针对特定背景人物图像的请求。谷歌对此作出回应,暂时下线了该软件,并为此事道歉。

与此同时,AI 概览问题出现的原因在于谷歌表示用户提出了一些罕见的问题。

在吃石头的例子中,谷歌发言人表示,似乎一个关于地质学的网站将其他来源的有关该主题的文章联合发布到他们的网站上,而这恰好包括了一篇最初出现在洋葱报上的文章。AI 概览链接到了该来源。

这些都是非常合理的解释,但谷歌继续发布有缺陷的产品并需要解释的事实让人感到厌倦。

卡内基梅隆大学泰珀商学院商业伦理学副教授德里克·莱本 (Derek Leben) 表示:作为产品的推出者,你必须对产品的质量和影响负责。

「你不能只是说……我们将把人工智能融入到我们所有成熟的产品中,而且它将一直处于持续的测试模式,对于它可能造成的任何错误或问题,我们都不会负责,甚至不会受到指责,这对于产品本身的信任而言是不合理的。」

谷歌是人们在网上查找事实的首选搜索引擎。每当我和朋友就一些无聊的话题争论时,我们中的一个总会大喊:「好吧,上谷歌搜一下!」你很可能也这么做过。也许不是因为你想证明你比朋友更了解辛普森一家的一些鲜为人知的事实,但仍然如此。

关键是,谷歌已经建立了值得信赖的声誉,而它的人工智能错误正在逐渐破坏这一声誉。

那么,为什么会出现这样的失误呢?Hegde 说,公司只是行动太快,在产品尚未准备好时就发布,以期超越微软等竞争对手(如微软) 和 OpenAI。

「研究的进展如此迅速,以至于研究和产品之间的差距似乎正在显著缩小,而这导致了所有这些表面问题。」他解释道。

自2023年2月微软和OpenAI联手发布其Bing搜索引擎和聊天机器人的生成式AI版本以来,谷歌一直在努力摆脱落后于微软和OpenAI的形象。

本月早些时候,OpenAI 在 I/O 开发者大会开始前一天宣布了其强大的 GPT-4o AI 模型,这使得他们在谷歌之前抢先一步。

但如果击败竞争对手意味着推出可能会产生错误或有害信息的产品,那么谷歌就有可能给用户留下这样的印象:它的生成式人工智能成果不可信,最终不值得使用。

0
分享到:
没有账号? 忘记密码?