研究表明,有54%的人无法分辨GPT-4和真人。(研究人员分析了68名59~84岁被试者花生十三)

6 月 17 日消息,最新研究指出,随着技术的不断进步,越来越多的人在图灵测试中无法准确区分 GPT-4 和真实的人类。

研究表明,有54%的人无法分辨GPT-4和真人。_图1

据了解,“图灵测试”由计算机科学家艾伦・图灵在 1950 年提出,又被称为“模仿游戏”。测试的标准是机器能否像人类一样进行对话,让对方误以为其是真人。

加州大学圣地亚哥分校的研究人员招募了500名参与者,让他们与四位“对话者”展开五分钟的交流。这四位“对话者”包括真人、上世纪60年代的初代聊天机器人ELIZA,以及驱动聊天机器人ChatGPT的GPT-3.5和GPT-4。参与者在对话结束后需要判断对方是人还是机器。

这项测试的结果发表于预印网站 arXiv 上,结果显示,有 54% 的参与者错误地将 GPT-4 误认为是真实的人类。相比之下,预先设定好回复的 ELIZA 只有 22% 的人将其认作真人,GPT-3.5 则为 50%,而人类对话者被正确辨认的比例则为 67%。

研究表明,有54%的人无法分辨GPT-4和真人。_图2

研究人员指出,他们认为图灵测试的设计过于简单。在测试中,对话的风格和情感因素扮演着比传统智能认知更重要的角色。

电气和电子工程师协会 (IEEE) 的人工智能研究员内尔・沃森 (Nell Watson) 表示,单纯的智力并不能代表一切,真正重要的是足够智能地理解情境、他人的技能并具备同理心将这些要素结合起来。能力仅仅是人工智能价值的一部分,理解人类的价值观、偏好和界限也同样重要,正是这些品质才能让人工智能成为我们生活中忠诚可靠的管家。

沃森还提到,这项研究对未来的人机交互提出了挑战,人们将会对互动对象的真实性愈发疑虑,尤其是在涉及敏感话题时。同时,这项研究也凸显了GPT时代人工智能的巨大进步。

沃森还指出,这项研究对未来的人机交互提出了一系列的挑战。随着技术的发展,人们对互动对象的真实性会越来越怀疑,尤其是在涉及敏感话题时。这也意味着人们需要更加谨慎地对待与人工智能的互动。

与此同时,这项研究也展示了GPT时代人工智能的巨大进步。通过模拟人类对话,人工智能能够更加自然地与人类进行交流,这为未来的人机交互带来了更多的可能性。

0
分享到:
没有账号? 忘记密码?