今年的《政府工作报告》对推进“人工智能+”行动提出了新的要求。《政府工作报告》着重强调了人工智能的实际应用,包括产业赋能、终端应用等方面。在强调技术应用的同时,多次出现“安全”一词,强调了产业的安全健康发展。
在金融领域,庞大的用户群体和海量数据积累还为人工智能技术的落地提供了优质场景。随着“人工智能+”行动的持续推进,AI大模型已经成为不少金融机构的标配。与此同时,问题也随之而来,“一本正经说胡话”的AI幻觉已经让不少金融从业者感到头疼,更令人担忧的是,金融业的高精确性要求使得AI幻觉问题被放大,从模型误判到资金损失可能仅是一步之遥。
AI幻觉是指AI大模型生成的内容与现实世界事实或用户输入不一致的现象。简而言之,就是AI在“胡说八道”。
记者了解到,眼下金融行业确实有不少投诉案例与AI幻觉有关。以市面上常见的AI智能客服为例,AI智能客服的“已读乱回”经常令用户陷入沟通困局。有客户连续发送“转人工”请求,对面仍回复“为了节约您的时间,还请再简单描述问题”;当用户咨询复杂的理财产品条款时,AI回答往往仍以“请咨询客户经理”仓促收场。不少用户不禁疑惑:这些外表智能实则机械的AI客服,与传统电话客服“按0转人工”的机械设置相比,究竟在服务体验上有多大程度的实质性提升?
中国邮政储蓄银行研究员娄飞鹏表示,AI幻觉会生成看似不合理、与事实不符的结果,如果出现在营销领域,可能导致银行无法向客户做好解释,从而增加银行维护客户群体的难度;如果出现在风险管理领域,可能使银行因为无法理解其中的逻辑原因,无法有效采取针对性的风险管理措施。
记者采访发现,AI幻觉的出现与行业之间的信息壁垒存在一定关联。“银行、保险、证券等不同行业间的数据难以有效整合,碎片化的数据生态制约了AI模型的训练精度。”招联首席研究员、上海金融与发展实验室副主任董希淼认为,AI模型的训练需要大量数据支持,如何在保证隐私和安全的前提下进行模型训练,是行业需要共同解决的问题。在部分对精度要求极高的金融应用场景中,AI幻觉可能对新技术的落地应用造成障碍。现行金融监管体系主要针对传统业务模式设计,面对AI技术驱动的新兴业态需要新的有效规制手段。“需要注意的是,AI生成的知识在准确性、科学性方面仍存在很大不足,现阶段只能作为辅助工具而不能作为决策工具。”董希淼说。
目前来看,完全消除AI幻觉并不现实。AI幻觉是一把“双刃剑”,尽管可能给金融这样对精确性要求较高的行业带来风险,但在文学艺术等创作领域,许多人视其为灵感的催化剂,甚至主动加以利用激发创新。“对金融机构而言,需要对AI大模型有一定的容错度。”娄飞鹏认为,对不同类型的经营管理决策需要在AI生成结果和人工经验判断上设置不同的权重比例。在AI输出结果的基础上,辅以人工判断更好地开展决策。同时通过适时增加数据指标、调整优化大模型等方法尽量减少AI幻觉的发生。(经济日报记者 苏瑞淇)