OpenAI把GPT-4原始版给了他们:研究不微调只靠提示词能走多远(GPL开源协议 可以商用吗)

AIGC动态欢迎阅读

原标题:OpenAIGPT-4

原始版给了他们:研究不微调只靠提示词能走多远

关键字:模型,示例,指令,上下文,发现

文章来源:量子位

内容字数:0字

内容摘要:

梦晨 发自 凹非寺量子位 | 公众号 QbitAI除了OpenAI自己,居然还有别人能用上GPT-4-Base版??

也就是未经微调的预训练版,还不会对话聊天,只会补全句子的模型。

EPFL(瑞士洛桑联邦理工)团队申请到了访问权限,用于研究“上下文学习足以让大模型跟随指令吗?”。

也就是不用监督微调、也不用RHLF或其他强化学习对齐方法,只靠提示词能走多远?

预训练模型,究竟能不能一步登天,直接改造成聊天机器人或AI助手?

如果可行,将大大降低类ChatGPT

大模型的开发难度。

免微调对齐靠谱吗?免微调对齐,让刚出炉的预训练模型不止会“文本补全”,只从提示词中学会和用户对话、跟随指令,一直是业界关注的研究方向。

目前的SOTA方法URIAL来自艾伦研究所,使用系统提示词+少数风格示例就能达到不错的效果。

但EPFL团队发现,URIAL仍无法完全弥补与指令微调模型的差距,尤其在多轮对话中的表现更差一些。

实验中,在Llama系列、Mistral系列和一般人接触不到的GPT-4-Base都观察到这种现象。‍‍‍

其中GPT-4-Base的API访问权限从OpenAI Researcher

原文链接:OpenAI把GPT-4原始版给了他们:研究不微调只靠提示词能走多远

联系作者

文章来源:量子位

作者微信:QbitAI

作者简介:追踪人工智能新趋势,关注科技行业新突破

0
分享到:
没有账号? 忘记密码?