聚焦安全可靠可控性建设
大模型带来的种种风险,对监管方、学术界、产业界是全新且不可回避的问题。
近年来,《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《科技伦理审查办法(试行)》等政策法规相继发布,搭建起我国人工智能治理的基本框架。一系列政策法规坚持发展与安全并重原则,强化科技伦理风险防控,从技术发展与治理、服务规范、监督检查与法律责任等层面对大模型安全发展提出要求。
白皮书提出,构建大模型安全政府监管、生态培育、企业自律、人才培养、测试验证“五维一体”的治理框架。
在监管方面,常永波介绍,敏捷治理正成为一种新型治理模式。该模式以柔韧、流动、灵活及自适应为特点,倡导多元利益相关者共同参与,能快速响应环境变化。在实施治理策略时,结合柔性伦理规范和硬性法律法规,构建完善的治理机制,在规制大模型风险的同时平衡创新与安全。
“为确保大模型在实际应用中发挥最大效能,防止潜在风险和滥用,大模型建设通常会聚焦三个重要维度:安全性、可靠性和可控性。”蚂蚁集团安全实验室首席科学家王维强解释,安全性意味着确保模型在所有阶段都受到保护,防止任何未经授权的访问、修改或感染,保障人工智能系统无漏洞、免诱导;可靠性要求大模型在各种情境下都能持续提供准确、一致、真实的结果,这对于决策支持系统尤为重要;可控性关乎模型在提供结果和决策时能否让人类瞭解和介入,以便人类根据需要进行调适和操作。
王维强特别提到时下备受关注的Agent(智能体)。他说,Agent是目前大模型落地的关键路径,但复杂的Agent体系进一步扩大了大模型风险敞口。目前RAG(检索增强生成)、指令遵循、知识图谱嵌入等方法可有针对性地提升模型输出的可控性和准确性。
|