首页 银行保险 > 正文

金融界人工智能化的“两面”

□肖蕾

英国政府发布的《英国国家人工智能战略》(National AI Strategy)中,将人工智能发展定调为“很可能成为英国经济各个领域和更广泛社会的一项日益完整的技术”。人工智能在未来社会经济中的重要性不言而喻。英国监管机构也在各自职权范围内发布指导意见,保证使用过程中遵循数据保护法。可见,英国对人工智能在金融领域应用的规范目标并不是面面俱到、深入到人工智能模型的黑匣子,而是围绕个人数据治理、来源、使用、输入和输出之间的联系提供必要保护。

目前为止,全球各国均已对人工智能在金融行业中的应用高度重视,并制定了大量治理原则。然而金融行业在实际应用中的困难在于:如何将这些治理原则融合到具体业务中,并将其转化为有效的内部实践。因此,从英国可以看出,部分国家将重点转向如何将高层次原则在具体业务用例(use cases)中进一步细化、澄清。

人工智能在金融服务中应用的很多方面,可以被视为对现有模型的延续。例如,大多数人工智能应用程序并没有取代传统业务流程,而是在现有业务中增强了分析技术。在大多数情况下,人的因素仍然存在于大部分环节中。对于英国金融服务业,目前并没有看到决策的全面自动化。同时,对于已经存在的、并非人工智能特有的风险,比如数据治理或模型风险,需要机构从更广泛的角度来管理,而不仅是聚焦在人工智能。

人工智能应用为消费者、企业和金融系统带来了更多个人化金融产品和服务,也带来了提升客户体验、提高预测能力、盈利能力、运营自动化和降低成本等方面的进步。延伸到更广泛的经济领域,人工智能可以帮助分析和理解金融系统复杂性,特别是超出人类智力可处理的应用场景;人工智能还可以帮助解决信息化时代日益明显的“合成身份”欺诈问题——即通过识别人类分析师难以识别的案例,从真实数据拼图中还原合成身份。而其可能带来的相关风险则可能出现在各个环节:首先是用来训练、运行人工智能模型的数据带来相关风险,其次是人工智能模型本身所产生的风险——这些风险会给金融机构及其风险治理结构带来风险,最后是整个金融系统可能面临的风险。

在金融服务中使用人工智能,风险可能出现在产品或服务生命周期的各个阶段且相互关联。例如在贷款申请时,人工智能系统可被应用于推销贷款产品、处理申请、指导或作出贷款审批决定、信贷管理过程自动化以及建立资产负债管理、资本监管所需模型上。然而在以上所有环节中,数据都可能存在偏差,例如误排除某些人群、特殊群体数据、缺乏透明度和可解释性、人工智能模型“输入输出”逻辑黑匣子难以理解以及根据人工智能模型结果所做决定的问责和责任不明确等。

人工智能可能会放大现有数据管理方面的已有风险,并带来新的挑战——这意味着金融机构现有的控制和框架可能需要演变,并随时调整使用人工智能的风险管理。对于人工智能可能需要更多持续监测和验证,以及详细的记录文档来管理风险。

人工智能虽然可以带来更个性化的金融服务和产品,但也是有代价的。高度定制的产品和服务可能导致某些客户被排除出去,或被歧视性、不恰当的高定价挤出。如果客户被模型误认为风险较高,可能无法获得必要信贷或保险。消费者面临的其他风险还包括垄断竞争、不公平处罚或产品条件(如获得信贷所需抵押品的水平)。人工智能还可能引入一些现阶段不被了解的非金融风险。比如人工智能和个人数据的结合可能侵犯消费者个人数据权利和数据隐私——这一点非常重要,机构需要在业务应用中引入保护特征,保证人工智能预测的公平性。

(作者系上海交通大学金融研究院研究分析师)

关键词: 人工智能 具体业务 金融机构

最近更新

关于本站 管理团队 版权申明 网站地图 联系合作 招聘信息

Copyright © 2005-2018 创投网 - www.xunjk.com All rights reserved
联系我们:33 92 950@qq.com
豫ICP备2020035879号-12