Nature:AI让抄袭问题更加复杂,科学家该如何应对?(抄袭容易被发现吗为什么呢)

AIGC动态欢迎阅读

原标题:Nature:AI让抄袭问题更加复杂,科学家该如何应对?

关键字:政策,人工智能,工具,报告,文本

文章来源:新智元

内容字数:0字

内容摘要:

新智元报道编辑:庸庸 乔杨

【新智元导读】生成式人工智能在写作中的爆炸性应用让抄袭变得难以界定,引发了学术圈的一场大讨论。从哈佛大学校长因抄袭指控在1月份辞职,到2月份曝光的同行评审报告中存在抄袭,今年学术界因抄袭事件而动荡不安。

但在学术写作中,一个更大的问题迫在眉睫——

生成式人工智能工具的迅速普及引发了关于何种行为构成抄袭,以及对AI工具什么程度的使用应该被允许的问题。

版权和剽窃问题顾问Jonathan Bailey认为,「人工智能的使用范围很广,从完全由人类撰写到完全由人工智能撰写,这中间存在着一个巨大的混乱地带」。

ChatGPT

等生成式人工智能工具基于被称为大语言模型 (LLM) 的方法,可以节省时间、提高清晰度并减少语言障碍。

现在,许多研究人员认为,在某些情况下可以允许这些工具的使用,并且应当充分披露其使用情况。

但是,这些工具使本来就充满争议的关于不当使用他人作品的界定变得更加复杂。

LLM通过消化大量以前发表的文章来生成文本。因此,使用这些工具可能会类似于「剽窃」。

例如,研究人员将机器写的东西冒充为自己的作品,或者机器生成的文本与其他人的作品非常接近,却没有注

原文链接:Nature:AI让抄袭问题更加复杂,科学家该如何应对?

联系作者

文章来源:新智元

作者微信:

作者简介:

0
分享到:
没有账号? 忘记密码?