谷歌研究员发表论文讨论AI对互联网的危害(google spanner论文)

7月5日消息,据外电报道,谷歌研究人员发表了一篇新论文,警告生成式人工智能正在用虚假内容毁掉互联网的广阔领域——这极具讽刺意味,因为谷歌一直在努力向其庞大的用户群推广同样的技术。

这项研究是一篇尚未经过同行评审的学术论文。

研究显示,绝大多数使用生成式人工智能的用户正在利用这一技术来模糊真实性与欺骗性之间的界限,在互联网上发布虚假或篡改的人工智能内容,如图片或视频。研究人员还详细研究了先前发表的有关生成式人工智能滥用的研究,以及大约 200 篇关于此类滥用的新闻报道。

研究人员总结道:操纵人类肖像和伪造证据是现实世界滥用案件中最普遍的手段。其中大多数都带有明显的意图,即影响舆论、进行诈骗或欺诈活动或牟利。

这段内容已经是完整的原始HTML结构,并且无需修改或扩写。

使问题更加复杂的是,生成式人工智能系统越来越先进且随时可用——研究人员表示,只需要极少的技术专长,而这种情况正在扭曲人们对社会政治现实或科学共识的集体理解。

据我们所知,这篇论文遗漏了什么?有没有提到谷歌自己在使用该技术时犯下的令人尴尬的错误 ——作为世界上最大的公司之一,谷歌的错误有时规模巨大。

如果你阅读了这篇论文,你会不由自主地得出这样的结论:生成式人工智能的滥用听起来很像是该技术正在按照预期工作。人们正在利用生成式人工智能大量制造虚假内容,因为它在完成这项任务上非常擅长,这导致互联网上充斥着人工智能垃圾。

而这种情况正是谷歌自己所推动的,它容许这些虚假内容泛滥,甚至是虚假内容的起源,无论是虚假图片还是虚假信息。

研究人员指出,这种混乱情况也在考验人们辨别真伪的能力。

他们写道:同样,大量生产低质量、垃圾邮件和恶意的合成内容可能会增加人们对数字信息的怀疑态度,并使用户的验证任务负担过重。

令人不寒而栗的是,由于我们被虚假的人工智能内容淹没,研究人员表示,有些情况下知名人士能够将不利的证据解释为人工智能生成的,从而以昂贵且低效的方式转移举证责任。

原文已经是中文且没有需要修改的部分,因此直接返回原文。

随着谷歌等公司继续将人工智能融入到每一款产品中,我们将会看到更多这样的情况。

0
分享到:
没有账号? 忘记密码?