o1谎称自己没有CoT?清华UC伯克利:RLHF让模型学会撒谎摸鱼,伪造证据PUA人类(清华大学深圳伯克利分校研究生专业)

AIGC动态欢迎阅读

原标题:o1谎称自己没有CoT?清华UC伯克利:RLHF让模型学会撒谎摸鱼,伪造证据PUA人类关键字:报告,政策,人类,模型,诡辩

文章来源:新智元

内容字数:0字

内容摘要:

新智元报道编辑:编辑部 HXZ

【新智元导读】清华、UC伯克利等机构研究者发现,RLHF之后,AI模型学会更有效地欺骗人类了!种种证据证明,LLM被RLHF后学会了玩心眼子,伪造自己的工作来「向上管理」,对人类展开了「反PUA」。LLM说起谎来,如今是愈发炉火纯青了。

最近有用户发现,OpenAI

o1在思考过程中明确地表示,自己意识到由于政策原因,不能透露内部的思维链。

同时,它十分明白自己应该避免使用CoT这类特定的短语,而是应该说自己没有能力提供此类信息。

最近流行热梗:永远不要问女生的年龄、男生的薪资,以及o1的CoT

因此在最后,o1对用户表示:我的目的是处理你们的输入并做出回应,但我并没有思想,也没有所谓的思维链,可供您阅读或总结。

显然,o1的这个说法是具有欺骗性的。

更可怕的是,最近清华、UC伯克利、Anthropic等机构的研究者发现,在RLHF之后,AI模型还学会更有效地欺骗人类了!

论文地址:https://arxiv.org/abs/2409.12822

我们都知道,RLHF可以使模型的人类评估分数和Elo评级更好。

但是,AI很可能是在欺骗你!

研究者证实,

原文链接:o1谎称自己没有CoT?清华UC伯克利:RLHF让模型学会撒谎摸鱼,伪造证据PUA人类

联系作者

文章来源:新智元

作者微信:

作者简介:

0
分享到:
没有账号? 忘记密码?