中评社北京8月16日电/据科技日报报导,近年来,人工智能(AI)技术推动生产力快速发展,但同时也因技术滥用导致各种问题。
为监督AI技术使用,如今市面上不乏各类用于检测AI生成内容(AIGC)的工具,如普林斯顿大学学生开发的GPTZero、斯坦福大学研究团队推出的DetectGPT等。我国一些研究团队也陆续发布各类检测工具,如西湖大学文本智能实验室研发的Fast-DetectGPT。
人类的创作与AIGC之间存在哪些差异?AI检测工具如何根据差异进行识别?AI检测工具如何应对越来越聪明的大模型?带着这些问题,记者采访了有关专家。
AI创作套路化明显
“虽然大模型在不断发展迭代,但到目前为止,AIGC与人类的创作在用词用语、逻辑语法等方面依旧存在明显区别。”Fast-DetectGPT研发者之一、西湖大学文本智能实验室博士生鲍光胜说。
在用词用语上,AIGC有相对固定的偏好。“不难发现,一些词语会反复在语段中出现。”鲍光胜举例说,有研究发现,大模型应用于英语学术论文写作时,“delve”(深入研究)一词的使用频率大大提高,这是因为大模型习惯用这个词对语句进行润色修改。
在逻辑语法上,AIGC惯常使用的一些语法搭配方式,在人类创作中可能并不常见。“受模型建模的影响,AIGC有相对固定的行文逻辑和表述模式,且这些模式会不断地被重复。人类在行文上则更为灵活,没有固定套路。”鲍光胜说。
北京大学信息管理系师生比较了AI生成与学者撰写的中文论文摘要。研究结果同样显示,AI生成的摘要具有较高同质性和较强写作逻辑性,并惯用归纳总结等学术话语体系;学者撰写的摘要则具有显着个性化差异,使用凸显实际含义的搭配较多,并常用与国家政策密切相关的词语。
哈尔滨工业大学一名研究生向记者讲述了他使用大模型的实际感受:“当我给大模型提供一些材料让它扩写,它每次都用相同的套路——把给定的材料拆解开,分为若干点论述。总体来说感觉它写得比较‘僵’。”
|