主办:中国评论通讯社
首页|头条|焦点|大陆|台湾|港澳|国际|美国|两岸|华人|经济|财经|军情|社会
人物|文萃|图片|文化|娱乐|评论|社评|快评|观察|专论|网评|外电|智库|智囊
专题|专访|专页|周边|诗词|出版|编译|网书|数据|动态|电讯|名家|记者|简介
   2025年2月18日 星期二
设为首页】【加入收藏】【中评邮箱
您的位置:首页 ->> 中评电讯 】 【打 印】 
生成式人工智能在学术界引发诚信争议
http://www.CRNTT.com   2024-07-31 17:14:51


  中评社香港7月31日电/生成式人工智能工具能够根据相关提示生成文本,虽然提高了写作效率,但也模糊了学术不端行为的界限。英国《自然》杂志日前发表的一篇文章说,随着ChatGPT等生成式人工智能工具的快速普及,学术界正面临一场关于诚信的新挑战。

  根据《自然》杂志去年对全球1600名研究人员的调查,68%的受访者认为生成式人工智能工具将使抄袭变得更容易且更难检测。

  新华社报导,文章指出,生成式人工智能工具如ChatGPT基于大语言模型,通过学习大量已发表的文本生成新内容。这种方式可能导致类似抄袭的情况,例如研究人员将生成式人工智能工具生成的文本当作自己的作品,或者生成的文本与某人的作品非常相似却未注明来源。

  文章提出一个核心问题:使用完全由机器(而不是人类)编写的未注明来源的内容是否算抄袭。

  一些研究机构将未经授权使用生成式人工智能工具定义为“未经授权内容生成”,而非传统意义上的抄袭。德国柏林应用科技大学的德博拉·韦伯-伍尔夫教授认为,传统意义上的抄袭通常指可归因于另一个具体作者的内容。

  也有一些人认为,生成式人工智能工具侵犯了版权。抄袭和侵犯版权都是对他人作品的不当使用,而抄袭违反了学术道德,未经授权使用受版权保护的作品则可能违反法律。“毕竟,这些人工智能系统是建立在数百万甚至数亿人的工作之上的。”美国密歇根大学计算机专家拉达·米哈尔恰说。

  文章还指出,尽管存在争议,生成式人工智能工具在学术写作中的使用量仍在增加。一项研究显示,2024年上半年,至少10%的生物医学论文摘要使用了大语言模型。人工智能工具不仅简化了写作过程,还能帮助非英语母语的研究人员克服语言障碍。

  专家呼吁制定更明确的政策和指导,以规范人工智能工具在学术写作中的使用,确保学术诚信。

扫描二维码访问中评网移动版 】 【打 印扫描二维码访问中评社微信  

 相关新闻:
首页 | 港澳新闻 | 国际时事 | 两岸专区 | 军事聚焦 | 评论世界 | 财经视角 | 文萃大观 | 中评电讯 | 时事专题
关于我们 | 中评动态 | 招聘人才 | 联系方式 | 链接方式 | 中评律师 | 验证记者证 | 免责条款
     最佳浏览模式:1024x768或800X600分辨率   © Copyright 中国评论通讯社