】 【打 印】 
【 第1页 第2页 第3页 第4页 】 
将决策权“外包”给AI靠谱么?
http://www.CRNTT.com   2021-06-24 10:12:55


 
  “尽管新理论模型产生的速度正在加快,但在过去20年中,这些数据集的预测精度几乎没有提高。”何黎胜告诉《中国科学报》,“其根本原因是我们的认知系统具有高度复杂性。”

  何黎胜解释说,风险决策看似简单。如果问大学生或高中生如何做风险决策,他们中的大多数人可能会说“我们先算出每个选项的期望价值,然后选择期望价值最高的选项”。

  但风险决策比这复杂得多,受到多种认知和情感因素影响。以往研究者通过考虑这些影响因素,对风险决策行为提出了多种理论解释模型。

  “近20年来,这种‘小数据集+小模型’的研究范式遇到了瓶颈,主要表现为我们对决策行为的解释越来越多,但对决策行为的预测能力并没有显着提升。”何黎胜说,“这很大程度上取决于常用的‘小数据集’和‘小模型’(与深度神经网络相比,常规的决策模型都是小模型)研究范式。小数据集不足以支撑像深度神经网络这样的‘大模型’,而‘小模型’又不足以支撑决策过程中复杂的认知与情感因素。”

  “大模型”显身手

  “人工智能技术虽然发展迅速,但计算机不会有人类意义上的感情,短期内也不可能产生人类特征的情绪。”天津大学自动化学院副教授杨正瓴对《中国科学报》说,“这也许会成为人工智能的优势,让它在某些领域比人类做得更好。比如,利用‘大数据’的人工智能决策,的确可以帮助人类减少决策失误。”

  近年来,不同学科之间的交叉研究提供了新的突破口,特别是行为决策、认知科学和机器学习等领域的交叉。

  “总体而言,在‘小模型’范围内,前景理论的预测精度是上佳的,是迄今为止预测精度最好的风险决策模型之一。”何黎胜说,“如果我们把视野放到更广阔的‘大模型’(例如深度神经网络等机器学习算法),前景理论等小模型的预测劣势就显现出来了。”
 


 【 第1页 第2页 第3页 第4页 】 


扫描二维码访问中评网移动版 】 【打 印扫描二维码访问中评社微信