DeepSeek浪潮下,AI在金融科技领域应用的数据合规风险
近年来,人工智能(AI)技术在各行各业都进行了充分部署与应用,AI亦一定程度上重塑了金融行业的服务模式和业务形态。另外,随着2025年DeepSeek的爆火,加之其开源策略支持本地私有化部署,DeepSeek在近期已席卷金融科技圈,大量金融机构将DeepSeek接入本地的系统,例如,2025年2月金融壹账通发布自主研发的智能体平台,并接入DeepSeek、通义千问等开源大模型,推出面向银行业的全场景AI解决方案。2025年2月,腾讯理财通宣布正式接入DeepSeek-R1模型满血版,升级接入DeepSeek后,金融服务专业性更强、时效性更高。金融科技企业纷纷宣布接入DeepSeek,加入这场AI应用大潮。
AI技术不仅提升了金融服务的效率,也拓宽了金融创新的边界。然而,技术革新与法律监管的博弈始终存在,AI在金融科技领域应用的同时,也引发了数据泄露、算法歧视等一系列法律风险。
中国人民银行于2022年1月4日对外公布的《金融科技发展规划(2022-2025年)》明确了“抓住全球人工智能发展新机遇,以人为本全面推进智能技术在金融领域深化应用,强化科技伦理治理,着力打造场景感知、人机协同、跨界融合的智慧金融新业态,实现金融服务全生命周期智能化,切实增强人民群众获得感、安全感和幸福感。”的基本原则。本文将从法律视角切入,系统分析AI与金融科技结合中的核心风险,并探讨合规应对路径。
PART.01
AI与金融科技的融合现状及应用
AI与金融科技的融合及应用场景非常的广泛,下文仅将部分典型场景进行列举及介绍。
(一)智能投顾
智能投顾又称机器人投顾,是一种运用人工智能算法、大数据分析、智能算法交易等技术,根据客户的风险偏好、财务状况、投资目标等因素,为客户提供自动化、个性化投资建议和资产配置方案的服务模式。相比于传统投顾,其服务成本较低、个性化定制、投资效率高的特点使得智能投顾广泛应用。例如:2025年2月,九方智投控股(09636.HK)宣布,其智能投顾数字人“九哥”和新一代股票投资对话助手“九方灵犀”已正式接入DeepSeek-R1,将更专业、更高效地服务广大投资用户。它们能够深度思考复杂投资问题,提供更具体的方案或案例,并清晰展示思考过程,帮助用户更好地学习金融市场的分析方法。
(二)风险管理
《金融科技发展规划(2022-2025年)》明确“健全自动化风险控制机制:事前,运用大数据、人工智能等技术拓展风险信息获取维度,构建以客户为中心的风险全景视图,智能识别潜在风险点和传导路径,增强风险管理前瞻性和预见性。”由此可见,AI在风险管理方面发挥着重要作用。金融机构可以利用AI技术对海量数据进行分析,以更准确地评估信用风险、市场风险、利率风险等。例如,通过分析客户的信用记录、财务状况、消费行为等数据,AI可以评估客户的信用风险;通过对市场数据的分析,AI可以预测市场趋势,帮助金融机构制定更有效的风险管理策略;AI通过监控交易系统日志和员工行为数据,能够及时发现异常操作,防范潜在风险;AI通过分析交易模式、设备指纹和客户行为,能够实时识别欺诈行为等。AI在金融风险领域的应用正在不断深化,未来将为金融机构提供更高效、更精准的风险管理工具。
(三)客户服务
AI在客户服务方面的应用也日益成熟。智能客服系统能够24小时不间断地为客户提供在线服务,快速准确地回答客户的问题,解决客户的疑虑。这不仅提高了客户服务的质量和效率,还降低了金融机构的运营成本。同时,智能客服还可以通过对客户问题的分析,为金融机构提供客户需求的洞察,帮助金融机构优化产品和服务。例如,广发证券在其客户服务平台上线了基于大模型技术的智能客服系统“智能犇犇”,该系统通过高质量问答数据训练,结合多维度参数调优与上下文语义理解技术,实现了精准知识匹配和智能内容生成,能够快速响应客户咨询,提升服务效率。
PART.02
AI在金融科技应用中的法律风险
(一)数据收集风险
AI技术的核心在于数据驱动,AI在金融科技中的应用高度依赖海量数据的收集,但这一过程常与数据保护的基本原则产生冲突。另外,《个人金融信息保护技术规范》(JR/T 0171—2020)、《金融数据安全 数据生命周期安全规范》(JR/T 0223-2021)、《金融数据安全 数据安全分级指南》(JR/T0197-2020)等规范也对金融科技领域涉及的金融数据(金融数据是指金融业机构开展金融业务、提供金融服务以及日常经营管理所需或产生的各类数据)以及个人金融信息(指金融业机构通过提供金融产品和服务或者其他渠道获取、加工和保存的个人信息。包括账户信息、鉴别信息、金融交易信息、个人身份信息、财产信息、借贷信息及其他反映特定个人某些情况的信息。)的收集及使用提出了特殊的要求和规定。
《个人信息保护法》明确规定了“最小必要原则”,即只能收集与处理目的直接相关的最少数据。然而,AI模型(如信用评分或反欺诈系统)往往需要多维度的用户信息(如消费记录、社交行为、地理位置等)以提高预测精度,这可能导致金融机构在实际操作中过度采集数据。当金融机构在推广智能投顾服务时,要求用户授权访问其社交媒体账户以分析投资偏好,这一行为虽提升了服务个性化水平,却很可能超出“最小必要”范围,引发用户隐私泄露的风险。
在收集个人金融信息时,根据《金融数据安全 数据生命周期安全规范》(JR/T 0223-2021)等相关规范,应做到如下要求:a)不应委托或授权无金融业相关资质的机构收集C3、C2类别信息;b)应确保收集信息来源的可追溯性;c)应采取技术措施(如弹窗、明显位置URL链接等),引导个人金融信息主体查阅隐私政策,并获得其明示同意后,开展有关个人金融信息的收集活动;d)对于C3类别信息,通过受理终端、客户端应用软件、浏览器等方式收集时,应使用加密等技术措施保证数据的保密性,防止其被未授权的第三方获取;e)通过受理终端、客户端应用软件与浏览器等方式引导用户输入(或设置)银行卡密码、网络支付密码时,应采取展示屏蔽等措施防止密码明文显示,其他密码类信息宜采取展示屏蔽措施等。
(二)数据共享风险
金融科技的创新往往需要跨机构、跨领域的数据共享。数据共享常有发生,其过程中的安全与合规风险不容忽视。首先,数据共享可能增加数据泄漏风险,其次,数据共享的合规性要求复杂,根据《个人信息保护法》第二十三条规定,个人信息处理者向其他个人信息处理者提供其处理的个人信息的,应当向个人告知接收方的名称或者姓名、联系方式、处理目的、处理方式和个人信息的种类,并取得个人的单独同意。接收方应当在上述处理目的、处理方式和个人信息的种类等范围内处理个人信息。接收方变更原先的处理目的、处理方式的,应当依照本法规定重新取得个人同意。此外,数据共享还可能引发权属争议。这些问题凸显了数据共享机制中安全与合规的多重挑战。
(三)自动化决策的透明性与公平性争议风险
AI算法的“黑箱”特性是数据应用的一大隐患:一个典型的案例是2019年苹果公司与高盛合作推出的Apple Card信贷服务。该服务使用AI算法自动评估用户的信用额度,但多名用户(包括苹果联合创始人史蒂夫·沃兹尼亚克)公开投诉称,尽管他们的财务状况相似,女性用户的信用额度普遍低于男性用户。这一事件暴露了AI算法在决策过程中可能存在隐性性别歧视,尽管高盛声称其算法“不基于性别、种族或其他受保护类别进行决策”,但由于算法的“黑箱”特性,外界无法验证其公平性,最终引发监管机构的调查。
这些案例表明,AI自动化决策的透明性与公平性问题不仅涉及技术层面,还触及法律与伦理的核心。因此,需要在技术创新与公平透明之间找到平衡点。为了应对这一问题,我国陆续出台《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》等规定,要求具有舆论属性或者社会动员能力的算法推荐服务提供者、深度合成服务提供者及技术支持者、生成式人工智能服务提供者,均应履行算法备案手续。
算法备案正是通过公示的方式,在不泄漏商业秘密的前提下,将企业拟使用算法的名称、基本原理、运行机制、应用场景、目的意图等信息予以公开,能够在一定程度上帮助公众了解算法的运行基本逻辑,提高用户对产品本身的信任程度,解决算法的“黑箱”隐患。因此,相关企业应积极响应法律法规及各地政策要求,切实履行算法备案义务。
PART.03
结语
本文系对AI在金融科技应用中的部分重要法律风险做列举,除了上述数据及算法相关风险外,还涉及金融营销、反洗钱、反欺诈、开源软件使用的合规风险等。
AI与金融科技的融合既是机遇,亦是挑战。法律风险的防控需兼顾技术创新与制度约束,平衡效率与公平,本土实践与国际规则。随着《金融科技发展规划(2022-2025年)》的深入推进,以及2025年监管框架的逐步完善,未来,AI不仅应是金融服务的工具,更需成为合规治理的伙伴,共同构建安全、包容、透明的金融生态。