大佬亲身示范:操纵AI如此简单,LLM不仅「发疯」还造谣诽谤(操纵什么意思啊)

AIGC动态欢迎阅读

原标题:大佬亲身示范:操纵AI如此简单,LLM不仅「发疯」还造谣诽谤

关键字:微软,机器人,模型,表示,搜索引擎

文章来源:新智元

内容字数:0字

内容摘要:

新智元报道编辑:乔杨 Frey

【新智元导读】当谷歌的Gemini建议给比萨加胶水时,网友尚能发挥娱乐精神玩梗解构;但当LLM输出的诽谤信息中伤到到真实人类时,AI搜索引擎的未来是否值得再三思量?ChatGPT

问世已经过去了将近两年的时间,我们对这项技术也逐渐祛魅,逐渐习以为常。

相信现在使用LLM的用户大多都是出于「提升生产力」的需要,很少有人找模型纯聊天,我们也逐渐忘记了它们的输出可以有多「疯狂」。

失控的AI料钱机器人时间回到2023年2月,OpenAI

刚刚更改了自己的时间线,紧急推出ChatGPT;微软也迫不及待地用上了最新的GPT模型。

LLM集成的聊天机器人Bing Chat就这样「赶鸭子上架」了,紧急得似乎还没有做好护栏。

内测刚开始时,《纽约时报》记者Kevin Roose还对Bing大加赞赏,专门写了一篇文章表达自己的赞叹之情。

Roose甚至表示,初次试用Bing的体验,让他回想起了初遇谷歌搜索时的兴奋和激动。

然而,就在一周之后,Kevin Roose再发一文,语气和态度却来了一个180度大转弯,从Bing的忠实粉丝变成了直言不讳的批评者。

原因无他,主要是Bi

原文链接:大佬亲身示范:操纵AI如此简单,LLM不仅「发疯」还造谣诽谤

联系作者

文章来源:新智元

作者微信:

作者简介:

0
分享到:
没有账号? 忘记密码?