金融是国民经济的血脉,金融高质量发展关系中国式现代化建设全局。当前金融与科技深度融合并快速迭代,科技创新逐渐引领金融服务的高质量发展,为金融行业带来了新的增长点,同时也带来了金融科技伦理治理问题。2022年以来,中共中央办公厅、国务院办公厅、中国人民银行陆续出台文件,明确要求加强金融科技伦理规范体系建设。作为助推金融科技领域新质生产力的重要组成部分,AIGC(人工智能生成内容)伦理治理同样应当提上日程,金融机构应高度重视并积极开展相关伦理治理工作。
浙商银行积极响应金融科技伦理治理工作,秉持“金融为民、金融向善”的经营理念,筑牢防范金融风险的伦理防线,在推进创新应用的同时,深刻认识AIGC在金融领域应用的潜在风险,通过健全治理体系、完善治理框架、建立审查评估机制等措施,以审慎的态度规划技术发展路径,持续推进AIGC向善发展。
知危不危,剖析AIGC应用伦理风险挑战
金融领域是应用金融科技与数字化最为广泛也最为适用的行业领域,AIGC也正逐渐成为进一步提高生产效率、降低业务成本、管控经营风险的重要手段。相关政策文件通过规范技术合理运用和金融服务公平、透明与安全性,为金融机构AIGC应用和伦理治理工作指明了方向。
金融领域AIGC应用的伦理风险主要源于技术背后庞大的数据支撑、复杂的算法模型和广泛的应用场景,相关风险挑战如图1所示。数据的质量和准确性、算法模型的有效和可靠性直接关系到AIGC应用的正确和正当性,而技术的误用和滥用也可能导致侵权性风险、信任度风险和社会性风险。在推进AIGC在金融领域发展过程中,需充分重视并有效管理上述风险,并最大限度减少潜在影响。
1.侵权性风险,隐私泄露与数据安全威胁。金融数据安全和隐私保护与消费者权益保护密切相关,而AIGC对数据的收集、加工到存储等各环节可能对隐私保护产生风险挑战。一方面,AIGC涉及大量训练数据,数据规模、复杂性较传统模型大大提升,使用未获得用户充分授权的数据、未能坚守数据专事专用的原则,易导致侵犯消费者隐私;另一方面,AIGC的安全防护机制漏洞可能在特定诱导词触发下泄露原始训练数据中的敏感信息,暴露潜在的隐私泄露风险。
此外,训练数据可能包含负面、有害、虚假数据等不当信息,在未对训练数据的语料来源、语料内容和语料标注进行安全性审查的情况下,将会产出夹杂偏见观点、违法信息、误导性内容和攻击性言论的结果,甚至引发法律追责。
2.信任度风险,不可解释与歧视偏见。现阶段AIGC在模型算法路线上具有较高不确定性,叠加深度学习大模型的“算法黑箱”特性,使其运算逻辑和决策过程不直观透明,形成难以阐释的决策“盲区”。一方面,金融机构在进行信贷审批或投资时,通常需要清晰、合理的评估依据,模型输出的模糊性易导致这些决策的合理性受到外界的挑战和质疑,一定程度上降低客户信任度;另一方面,难以满足监管机构对透明度和可解释性的要求,面临合规风险。
此外,模型构建过程中存在数据的偏见性、代表性不足或是算法本身的规则缺陷问题可能导致大模型“算法歧视”现象,这与金融向善、普惠包容的核心理念相背离,从而损害金融机构的声誉及市场形象。
3.社会性风险,不当竞争与错误决策。AIGC应用赋能各大业务场景产生的不公平竞争和非事实性输出构成了显著的风险点,可能误导公众的认知和判断,还可能对社会和谐稳定构成威胁。一方面,金融机构在使用数据、流量、算法定制化金融服务的过程中,可能利用信息差制造信息茧房、垄断经营、诱导超前消费、“大数据杀熟”,导致客户利益受损;另一方面,AIGC还存在“幻觉”问题,即输出看似合理但与实际情况脱节、缺乏事实基础的结果,不仅影响对客服务的准确性,还影响投资建议或风险评估等应用的可靠性,导致错误决策与不可预期的经济损失。
以道御术,探索AIGC应用伦理治理路径
以道德为指引、以伦理为规范,推动AIGC应用的健康发展是金融机构维护金融稳定、保障金融安全的必经之路。数据层面,保证数据的合法性、隐私性和公正性,通过严格的数据采集、存储和使用流程,防止数据滥用和泄露;算法模型层面,增强模型的透明性、可解释性和公平性,通过伦理审查和监管避免算法偏见和歧视,确保算法决策的公正合理;应用层面,加强对AIGC应用的伦理评估和监督,确保其符合伦理规范和法律法规,避免应用被误用或滥用。整体而言,AIGC应用伦理治理需构建一个从数据到算法模型再到应用的全方位监管体系,确保应用向善。
1.保护数据隐私,强化数据安全与数据审核。金融机构在积极应用AIGC的同时,必须始终将数据隐私与安全放在首位,通过建立完善的数据治理体系和技术防御机制,为金融服务提供坚实可靠的数据支撑和安全保障。一方面,金融机构应保障隐私数据安全及训练数据内容合规性,建立完善的数据安全治理组织架构与数据内容审核机制,实行数据分类分级管理并持续采取防护措施,提高数据的保密性、完整性、准确性,确保训练数据符合金融行业伦理规范,并落实到数据传入、存储、共享、跨境等各个场景中;另一方面,金融机构需进一步深入探索数据加密、数据脱敏追踪及网络安全防御等技术的研究和应用,提升数据保护能力和安全防护能力。
2.保障公平公正,完善审查机制与信息披露。金融机构在推进AIGC大模型建设的过程中,需完善模型评估机制,制定系统化的审查方法,将审查工作全面贯彻至算法设计、实施及运用等各个环节,以确保AIGC大模型的透明度及算法的公正无偏见。一方面,通过深入剖析算法机制,关注模型可解释性和无偏性,分析大模型对客户和社会伦理方面可能带来的风险,从而完善风险识别、评估、监控体系并提出相应的预防措施;另一方面,建立透明的信息公开渠道,向公众充分披露算法所使用的数据来源、应用场景、决策流程及潜在风险,确保相关信息的透明性、公平性和准确性。
3.构建治理体系,建立应用评估与监控机制。金融机构在推进AIGC应用落地的过程中,要坚守金融为民初心,将伦理风险评估前置,在场景设计初期即审查数据、模型使用的合理性、正当性,注重保护客户利益,避免过度利用信息与技术不对称性影响或妨碍客户选择,保证AIGC金融应用的公平公正。一方面,金融机构应审慎评估AIGC应用场景,对相应场景的模型输出结果进行实时监控,并组建行业专家团队,定期审查和评估模型输出,确保其与实际业务场景相符;另一方面,金融机构应建立问题反馈机制和持续改进计划,对模型进行持续迭代和优化。
多维协同,推动AIGC应用伦理治理实践
在推动AIGC应用伦理治理的实践中,金融机构应健全伦理治理框架、完善标准体系、推动协同共治,实现AIGC在金融行业的可持续发展。浙商银行在AIGC应用伦理治理方面展现了金融向善的坚定立场,明确治理原则和标准、构建伦理治理框架和机制、加强数据治理、优化算法模型的可解释性和公正性、增强应用层面的伦理评估和监督,确保AIGC的合规应用并防范潜在风险。此外,积极与监管机构、行业组织及社会各界开展合作与交流,共同推动AIGC应用伦理治理体系不断完善和进步。
1.落实主体责任,健全治理制度体系。金融机构应落实治理主体责任,建立健全AIGC应用伦理治理制度框架。一是强化数据治理,制定符合金融科技伦理原则要求的训练数据采集、使用、保护流程和算法风险管理制度;二是完善AIGC科技伦理审查、信息披露等常态化工作机制,合理平衡商业利益和伦理道德二者关系;三是严格审查与监督AIGC相关应用的开展,提前预防并有效化解潜在伦理风险,确保技术不被滥用或误用。
浙商银行积极落实相关法律法规和监管政策要求,持续健全科技伦理治理顶层机制,完善治理组织架构,建立了覆盖信息科技治理、信息科技风险管理、网络安全、数据安全、业务连续性保障等方面的制度框架,将人工智能包括AIGC在模型、数据、应用层面的合理性、正当性、可解释性等要求嵌入现有全流程和各环节之中,如图2所示,明确各方职责,推进AIGC应用伦理治理制度标准化、体系化建设。
2.完善标准体系,筑牢伦理治理基石。金融机构应结合金融行业应用发展实际情况,在监管指导下积极参与制定行业技术规范,通过标准规范建设,明确AIGC设计、实现、应用的底线要求,明确模型的基本安全属性和规范等,推动行业规范和标准落地,共同构建金融科技伦理治理生态圈。
浙商银行高度重视标准化工作,在监管机构等的指导下,积极参与人工智能算法金融应用信息披露指南及AIGC大模型治理相关行业标准的制定工作,并将持续深入做好金融科技标准与规范建设,为AIGC等新兴技术的持续、健康、稳定发展打好基础。
3.推动协同共治,构建多元治理体系。金融机构应坚持开放合作理念,积极与政府、产业、科研机构、行业组织等相互协调、协同共治,共同开展AIGC应用的研发与管理,应对金融应用中潜在的信息泄露、数据偏差、算法偏见等安全风险,构建可持续发展的AIGC应用伦理治理体系与统一的治理框架,共同营造诚信、健康的金融市场环境。
浙商银行积极与监管部门、行业协会、学术团体等机构组织开展交流合作,深化产学研联合创新,并积极参与属地监管主管的金融科技伦理(专业)委员会组织的伦理自律机制研究、算法治理和数据安全等工作,为打造向善的金融科技伦理生态贡献力量。
以善为本,以道御术,浙商银行深刻认识AIGC在金融领域应用的重要性和潜在风险,以“敬畏、感恩、诚信、责任”的共同价值观,践行“善本金融”理念,坚守科技伦理边界,推动AIGC赋能各大业务场景的同时,持续深化AIGC应用伦理治理体系建设,确保合规应用,让金融科技成果真正造福于民。
(此文刊发于《金融电子化》2024年10月上半月刊)