中国人工智能学会通讯——AI如何深度应用于消费金融的风控决策 1.1 目前中国消费金融行业面临三大挑战。

简介:

image

1.1 目前中国消费金融行业面临三大挑战。

首先,中国有人民银行征信记录的只有3.5亿人,个人征信渗透率只有约20%,绝大部分都是没有信贷历史的薄文件人群。

薄文件人群和白领一样有强烈的信贷需求,且信用资质良好,是一座需要开发的“金矿”。而在没有传统征信数据的支持下,识别薄文件人群的信用和欺诈风险,是风控业务面临的最大的技术挑战。

另一方面,在信贷业务中有逆向选择问题。信用良好的人群,对信贷业务的用户体验要求越高。用户填写申请信息的复杂度和审核时长是用户体验的关键环节。

好的消费金融服务应该让信贷完全融入消费过程,通过金融服务来提高用户的消费体验。在风险可控的前提下,用更少的客户信息,更快速完成审核,才能吸引优质客户。

image

最后, 消费金融量大额小,如“买单侠”3C分期业务,在单均2 000~3 000的情况下,扣除坏账成本、运营成本、资金成本等,收入有限。如何在风险可控的前提下,有效控制审核成本,是另一大挑战。

而如银行信用卡申请的传统风控方式,并不能解决消费金融的挑战。首先,传统的银行信用卡申请审核中,最多用到50个来自央行征信数据点。对于没有央行征信记录的薄文件人群来说,小规模的数据量和简单模型很难精准地区分薄文件人群的信用好坏。此外,信用卡申请审核利用老专家来识别客户的风险,且易受主观因素影响;且银行信用卡的审批周期很长,无法满足消费场景的冲动购物需求。所以,传统风控技术并不适用于消费金融场景。但人工智能的运用,让传统风控技术无法妥善解决的挑战迎刃而解。

秦苍科技基于人工智能的全自动风险管理体系,自主研发了八爪鱼智能信贷平台“Octopus”。目前薄文件客户,只需填写不到20个字段就能完成信贷申请。整体申请过程小于5分钟,平均审核时长小于3分钟。

目前,人工智能帮助秦苍科技降低了25%左右的逾期率,仅此一项,每年就能够节约千万的坏账成本。同时,人工智能在秦苍科技客户生命周期管理的各个阶段,尤其是在风险决策当中起到了重要作用。

八爪鱼平台的数据机器人Databots以非侵入式的方式,通过互联网、社交网络、设备和传感器、内部数据、第三方合作伙伴等方式,快速收集、处理数据,将不到20个客户填写的字段迅速扩展为上万个信贷相关的数据点。

image

相关文章
|
13天前
|
机器学习/深度学习 人工智能 搜索推荐
AI在金融领域的应用:智能投资顾问
【10月更文挑战第31天】随着AI技术的快速发展,智能投资顾问在金融领域的应用越来越广泛。本文介绍了智能投资顾问的定义、工作原理、优势及未来发展趋势,探讨了其在个人财富管理、养老金管理、机构风险管理及量化交易中的典型应用,并分析了面临的挑战与机遇。智能投资顾问以其高效、低成本、个性化和全天候服务的特点,正逐步改变传统投资管理方式。
|
1月前
|
数据采集 人工智能 算法
近五千支队伍决战AI之巅, AFAC2024金融智能创新大赛在2024 Inclusion · 外滩大会完美收官
自从2022年12月ChatGPT上线以来,全球掀起了一场你追我赶的AI竞赛,不少国家都在全力以赴,抢占制高点。
|
3月前
|
人工智能 安全 Anolis
中兴通讯分论坛邀您探讨 AI 时代下 OS 的安全能力 | 2024 龙蜥大会
操作系统如何提供符合场景要求的安全能力,构建更加安全可信的计算环境。
|
3月前
|
机器学习/深度学习 数据采集 人工智能
【AI在金融科技中的应用】详细介绍人工智能在金融分析、风险管理、智能投顾等方面的最新应用和发展趋势
人工智能(AI)在金融领域的应用日益广泛,对金融分析、风险管理和智能投顾等方面产生了深远影响。以下是这些领域的最新应用和发展趋势的详细介绍
422 1
|
3月前
|
机器学习/深度学习 人工智能 开发者
人工智能的伦理困境:机器决策与道德责任
【8月更文挑战第3天】 在人工智能技术飞速发展的今天,机器学习和自动化决策系统正逐步渗透到我们生活的方方面面。然而,随着技术的进步,一系列伦理问题也随之浮现。从数据偏见到隐私侵犯,再到机器自主性引发的责任归属问题,人工智能的伦理挑战不容忽视。本文将探讨AI技术中存在的几个关键伦理议题,并讨论如何通过制定合理的政策和技术框架来应对这些挑战。
81 3
|
3月前
|
机器学习/深度学习 人工智能 算法
人工智能的伦理困境:机器决策与人类价值观的碰撞
【8月更文挑战第23天】在人工智能(AI)技术飞速发展的时代,机器学习算法已渗透进我们生活的方方面面,从日常消费推荐到医疗诊断,再到司法判决。然而,随着AI决策能力的增强,一系列伦理问题也随之浮现。本文将探讨AI决策背后的伦理挑战,包括数据偏见、隐私保护、责任归属以及自主性与控制的问题,并思考如何在技术进步的同时维护人类的价值观和伦理标准。
|
4月前
|
机器学习/深度学习 人工智能 算法
智能时代的伦理困境:人工智能决策的透明度与责任归属
当AI技术逐渐渗透到我们生活的每一个角落,它带来的便利和效率提升是显而易见的。然而,随之而来的伦理挑战也不容忽视。本文将探讨AI在做出决策时面临的透明度问题,以及由此引发的责任归属难题。通过分析AI系统的工作原理、决策过程及其对个人和社会可能产生的影响,我们将提出一系列针对当前AI伦理困境的解决方案和建议,旨在促进AI技术的健康发展同时保护人类社会的基本伦理原则。
|
4月前
|
人工智能
人工智能伦理:机器的决策与道德责任
本文深入探讨了人工智能技术在现代社会中的应用及其引发的伦理问题。文章首先介绍了人工智能的发展背景和当前的应用现状,随后详细分析了AI决策过程中可能遇到的伦理困境,包括数据偏见、隐私侵犯及自动化失业问题。通过对比分析不同国家和组织在AI伦理方面的立法和规范,提出了建立全球统一的AI伦理框架的建议,并讨论了实现这一目标的可能路径。最后,文章强调了人类在AI伦理问题上的责任,以及持续关注和研究AI伦理议题的重要性。
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
模型可解释性在AI和机器学习中至关重要,尤其在金融、医疗和司法等领域。
**模型可解释性在AI和机器学习中至关重要,尤其在金融、医疗和司法等领域。它建立信任、揭示偏见、辅助错误排查和满足法规要求。方法包括使用直观模型、局部解释器(如LIME)、全局工具(如PDP、SHAP)及神经网络和注意力机制的可视化。可解释性结合领域知识和伦理,推动透明智能系统的构建。**
43 0
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
模型可解释性在AI和机器学习中至关重要,尤其在金融、医疗和司法等领域。
【6月更文挑战第28天】模型可解释性在AI和机器学习中至关重要,尤其在金融、医疗和司法等领域。它建立信任、揭示偏见、辅助错误排查和满足法规要求。方法包括使用简单模型、局部解释(如LIME)、全局解释(如PDP、SHAP)、模型可视化和注意力机制。通过跨学科研究,兼顾效率与透明度,打造可信的智能系统。
46 0