再比如《办法》第五条规定:利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任。
按照这一规定,生成式AI服务平台将承担等同于内容生产者的责任。但我们知道,生成式AI的最大特性,是其推理生成过程本来就是一个概率问题,具有一定的概率性和创作性,生成内容在不同的场景使用可能会产生不同的影响,生成式人工智能提供方无法确定使用者的具体用途。因此,这也就要求使用方要切实负起责任,善用平台。如此,才能确保行业能够良性发展,行稳致远。
再比如《办法》第十六条规定:提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。
针对这一规定,有不少人拍手叫好,认为是对最近频频出现的“AI换头”“AI换脸”犯他人隐私及权益的有效应对。不过,如果考虑到AI技术及未来将大量应用影视作品、游戏动漫等,如果“一刀切”地强制要求对AI生成的图片与视频都加上标识,那这个画面可能就有点“没法看”了。试想一下,你看电影看得正起劲,沉浸于剧情不可自拔,却突然在某个劲头中出现了“AI生成”的标识,会不会让你瞬间出戏?
因此,这一条款,是否有必要细化,分门别类加以规定,对不当使用工具的人进行惩戒?另外,就像许多网友所呼吁的一样,“希望使用AI的人遵纪守法有道德”!人工智能技术本身并没有善恶,别被有心之人恶意使用。
从ChatGPT到文心一言,再到GPT-4和各类生成式人工智能,生成式人工智能被认为是降本增效的重要载体。目前,包括百度、腾讯、阿里、华为、京东、360等多家国内科技巨头均已宣布在生成式AI产业有相应布局。《生成式人工智能服务管理办法(征求意见稿)》的发布,让人看到有关部门完善生成式AI的应用环境,为生成式AI在国内应用创造条件的决心。但是,我们也要看到,要达到这个目标,需要各个环节的共同努力。不管是生成式人工智能产品提供者还是数据使用者,都应该抱着“向好”“向善”的决心和作为,共同完善数据生态,给生成式人工智能发展以更加宽松的空间。而不是让原本中性的科技来为自己不负责任的行为“背锅”。 |