“加强人工智能治理规则的全球协作日益成为各方共识。”张欣说,人工智能技术的突破式发展导致新旧风险叠加,影响社会伦理秩序,带来了一系列安全和伦理挑战。例如,生成式人工智能的发展既导致传统技术风险加剧,又带来了一系列新兴风险。尤其在人工智能研发和应用环节对个人隐私和数据安全带来了数据泄露、数据滥用、侵犯个人隐私等隐患。而与传统技术风险有所不同,人工智能技术风险具有隐蔽性、跨域性、全球性、长期性,需要从国际层面展开持续性、系统性和协同性的治理努力。此外,由于人工智能的技术迭代以日为单位,若不在早期实施有效的介入治理,则可能出现后期风险难以控制的治理困境。各国虽在人工智能治理思路和具体方案上存在差异,但从数据安全和个人隐私保护的视角对人工智能训练环节施加规制和约束已成为共识。
“全球人工智能治理还呈现‘法治化’特征,从早期以科技伦理、技术标准、自律承诺等为代表的软法治理,逐步转向一种更为成熟的‘软法与硬法双轨并行、刚柔并济’的新型治理模式。”张欣说,各国虽就人工智能治理提出了多元化的治理理念和治理路径,但通过法治化道路为人工智能治理提供“制度围栏”已在国际层面形成广泛共识。中国推出了《科技伦理审查办法(试行)》和《生成式人工智能服务管理暂行办法》,提出了人工智能治理的中国方案。《全球人工智能治理倡议》中关于逐步建立健全人工智能领域的法律和规章制度的提议,不仅是为国际社会贡献中国智慧和中国经验的重要举措,也是中国在推动全球人工智能治理法治化进程中扮演关键角色的重要体现。
各国需在形成充分共识基础上通力协作
由于技术发展水平和文化背景差异,各国对人工智能风险的感知也显着不同。斯坦福大学人工智能研究所发布的《2023年人工智能指数报告》引用调查机构易普索(IPSOS)2022年的调查指出,部分发展中国家对人工智能普遍更加乐观。如78%的中国受访者同意“使用人工智能产品和服务的好处多于坏处”的观点,76%的沙特阿拉伯受访者和71%的印度受访者认为人工智能产品“利大于弊”。德国、荷兰、澳大利亚、比利时和加拿大等一些发达国家对人工智能产品和服务的评价则稍显负面。
“当前,全球人工智能治理面临不少挑战。”姚旭说,一是一些国家将人工智能等科技领域安全泛化,在合作当中设置了诸多藩篱。二是人工智能全球治理的总体架构尚不明确。各个层面建立何种机制更为有效尚未明确,全球范围内人工智能治理的制度竞争正变得愈发激烈。三是人工智能全球治理的思路尚未统一,具体的治理方案和标准上还有很多争论,例如如何进行人工智能安全分级标准界定,如何确立重点治理的人工智能风险类别,如何将立法节奏和创新动力进行适配等。
张欣表示,现阶段,全球人工智能发展面临的监管挑战集中体现在5个方面:一是步伐困境。人工智能监管框架发展跟不上技术发展迭代的速度。二是技术鸿沟。人工智能模型越来越复杂,参数量越来越大,这导致原来构建的基于透明度的人工智能治理框架应对乏力。三是资本逐利。人工智能发展过程中资本的逐利可能导致技术异化。四是归责框架仍不清晰,对人工智能产生的风险和损害如何有效归责仍然是一项亟待解决的问题。五是协作治理机制尚不健全。由于人工智能带来的很多风险具有全球性,各国需要在形成充分共识的基础上通力协作。但目前的人工智能全球治理格局初步形成,仍然有碎片化特征,需要采取更多措施构建共建共治共享的全球治理机制。
《人工智能全球治理上海宣言》提出,倡导开放与共享的精神,推动全球人工智能研究资源的交流与合作。建立合作平台,促进技术转移与成果转化,推动人工智能基础设施公平分配,避免技术壁垒,共同提升全球人工智能的发展水平;倡导建立全球范围内的人工智能治理机制,支持联合国发挥主渠道作用,欢迎加强南北合作和南南合作,提升发展中国家的代表性和发言权;鼓励国际组织、企业、研究机构、社会组织和个人等多元主体积极发挥与自身角色相匹配的作用,参与人工智能治理体系的构建和实施。 |