宣言指出,人工智能必须在人为监督下运行,确保其决策透明且问责。这不仅能避免技术失误,还能保证人工智能成为专业判断的辅助工具,而非替代品。建议金融机构应制定人工智能管治策略,为如何实施及使用人工智能系统指明方向。在人工智能系统的采购、使用及管理上应采用风险为本的方法,包括设置更多保障机制来保护敏感数据,并确保人工智能在决策过程中的透明性。这一点尤为重要,因为人工智能系统在处理复杂的金融市场时,可能会出现所谓的“幻觉”──即生成错误或误导性的结果。这种风险强调了人为监督的必要性,确保人工智能系统的决策不会对市场或公众利益造成不可预见的损害。
金融机构在推动人工智能负责任应用方面,无疑扮演着关键角色。为配合人工智能的最新发展及国际做法,金融监管机构要持续检视及更新现行的相关法规及指引,以应对人工智能技术带来的新挑战。同时,监管机构应建立标准化的人工智能审核和合规检查机制,确保金融机构定期评估其人工智能系统的伦理和法律合规性。这种监管机制的建立,不仅有助于确保人工智能技术的安全应用,还能促进技术的创新发展,同时保障公众利益。
特区政府采取的双轨模式──即在促进人工智能发展的同时应对网络安全等潜在挑战──是具前瞻性的务实方法。随着人工智能在金融业中的应用日益广泛,监管框架必须与时俱进,适应技术变革。特区政府推出的多项举措,如“金融科技监管沙盒”和“‘拍住上’金融科技概念验证测试资助计划”等,为金融机构提供了一个安全的试验环境,可以在相对可控的条件下测试和应用人工智能技术,这不仅有助于促进创新,也能有效避免潜在风险的累积。
当前,我国在人工智能创新中占主导地位,根据史丹福大学最新发布的《2024年人工智慧指数报告》显示,在全球范围已授权的人工智慧专利中,超过61.1%来自中国。香港是国际金融中心,在基础科研上也具有优势,发展金融科技不单能进一步巩固提升竞争力,也可以助力国家“AI+”的发展,并加强了香港在粤港澳大湾区内的角色。特区政府积极鼓励与内地进行合作,也重视国际间的合作,这对于建立一个可持续且具有竞争力的人工智能驱动的金融生态系统至关重要。
|