技术自身缺陷不容忽视
依托庞大参数规模、海量训练数据、强大算力资源,大模型作为人工智能领域最热门的技术分支,已在多个领域表现出超越人类的能力。
“金融、医疗、教育、政务、制造等众多领域都在积极探索大模型安全应用范式,以应对大模型安全风险。”常永波介绍,伴随大模型的深度应用,产学研用各方都在加强大模型安全威胁和防御技术体系研究。在原有可信人工智能治理体系框架基础上,提升大模型的鲁棒性、可解释性、公平性、真实性等能力成为行业研究热点。安全评测技术和安全防御技术的不断成熟,有效护航大模型发展。
WAIC 2024上,清华大学、中关村实验室、蚂蚁集团等机构联合撰写的《大模型安全实践(2024)》白皮书(以下简称“白皮书”)正式发布。白皮书显示,大模型技术存在自身缺陷,包括生成内容不可信、能力不可控以及外部安全隐患等问题。
“幻觉是大模型目前比较难解决的问题。”常永波说,模型在遵循语法规则的同时,可能产生虚假或无意义的信息。这一现象源于大模型基于概率推理的输出方式。它可能导致对模糊预测的过度自信,从而编造错误或不存在的事实,影响生成内容的可信度。“智能涌现”是大模型的另一种效应,它可以让模型展现出色性能,也具有突发性、不可预测性和不可控性等特征。
另外,大模型的脆弱性和易受攻击性使外部安全隐患难以消除。相关数据显示,随着大模型技术快速发展,相关网络攻击也在增多。
|