太平保险技术总监黄雪英:客户分级认证与大数据应用

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

上海,中国的经济、金融、贸易、航运中心,一直以变革、创新引领着中国企业的发展。在“互联网+”浪潮下,上海企业首当其冲,这座城市,一直用信息化手段推动着企业的高速发展。2016年10月28日,企业网D1net携手上海CIO联盟共同举办的CIO沙龙活动在上海盛大举行,来自各行业的CIO共聚一堂,共同探讨各行业在互联网+实践方面的信息化实践,涵盖大数据实践、互联网风控等领域。

以下为:太平保险技术总监黄雪英在上海CIO沙龙的演讲,题目是:《客户分级认证与大数据应用》

黄总:很多人会把太平洋保险和太平保险的搞混,我现在是在太平保险。以前我确实是在太平洋保险,去年年初到了太平保险,这个问题我这两年来经常会碰到,大家会把这两家公司搞混,那先介绍一下太平保险。

太平保险是一个总部在香港的央企,类似于华润这样的公司,前身是中保国际,最开始是跟人保和国寿是一家的,分家的时候就把海外这一片分给了这个太平。我们主要的业务是在国内,基本上是各种险种都做,大概有二十几家子公司。我们专门成立了太平共享金融服务公司,提供运营服务和信息技术服务,现在我是在这个金融服务公司里面。

我今天讲的题目是客户信息等级认证和大数据的应用。为什么我们会做客户信息等级认证,首先,保险和银行虽然都是金融行业,但是有特别不一样的一点:银行是坐着服务的,保险是要走着服务的。意思是说我们是靠几十万的营销员队伍去卖保险的,那么在这个过程中,我们没有一个所谓的开户的过程,所以客户的信息很多时候是不真实的。好多年以前,当然现在不是了,很多身份证都是我们编出来的,因为没有身份证,但是可能系统设计的时候又会要求有这个字段,所以只能编一个放进去,那系统可以认证了,实际上那个时候大家也不觉得身份认证很重要。

现在我们看到,传统企业都都在转型,都不得不拥抱互联网。我们也有专门的电商公司来做互联网的销售,这个时候就会发现客户证很重要。但我们又不能像银行一样有个开户流程,开始的时候,很多保险公司也考虑过,后来发现不可行,因为几十万营销员队伍都抱怨非常大,会认为说,我希望客户赶快签单,你再让他去搞个开户流程,还要到柜面去认证一下,那我的生意就泡汤了。所以到最后,我们决定通过互联网来进行认证。

客户信息的认证,它的推进是基于客户实名制的。银行早就有实名认证了,那保险行业呢?我们对客户服务过程的第一步是保单卖出去,然后抓住与客户的接触机会,包括柜面、微信、电话等各种接触机会来收集客户信息,收集之后,我们会把它进行分级。保险行业本身是一个对风控要求非常高的行业,对这个信息的要求也非常高的,在没有实名认证的时候,比方说客户要改一个电话号码,我们在保险行业里面都会把它当成是对保单的批改。为什么叫批改?因为是有法律效益的,所以过去,我们很多事情都要求客户亲自去网站做。后来可以在电话上去做,就是打我们的客服电话95589,但是客服为了验证身份也是会问很多的问题。所以我今天的主题,更多是说,怎么去把通过各个不同渠道的收集来的信息整合成一个风险矩阵。

整合成风险矩阵以后,客户后续可以享受不同的服务。比方过去需要到柜面才能进行保单贷款,现在可以通过微信、网站就可以了。因为我们保险公司和银行比网点是少很多的,所以客户往往会反馈说非常不喜欢到网点去做这些服务。

下面介绍我们的业务应用。所谓的新契约,就是指我们卖保单的那个时刻,能采集多少信息就采集多少,也不指望。因为这个时候,营销员的思维思路是我怎么能把这张单赶快签下来,很多信息都不去验证,都不会去提供的。

第二个是保全,比方说你有一张保单,过几年又生了个孩子,你想把这上面加一个受益人,这时候你就要去做保全。保全会通过打电话或者是到柜面去做,那么这个时候也是我们的一个机会,我们会去跟他去重新验证一些信息。

所谓调查,是指理赔的时候我们要去验证这个人是不是当时买保单的那个人,这个过程也是可以搜集到这个客户信息的。

电话回访,是我们这个行业监管的一个特殊要求。你买完保险大概一个星期左右,会收到一个来跟你确认保险是不是你自愿买的电话,这是我们的监管机构保监会要求的。借电话回访的过程,可以同时跟客户确认,他当时没有来得及提供的一些信息,这个也是我们收集客户信息的一个手段。

我们把信息收集起来以后要进行多手段认证。第一个是借助第三方。目前合作的运营商是联通,来确认电话号码是不是真实的。我们行业里面百分之四五十的电话号码都是假的,所以一定要做验证。不过目前还没有拿到移动的授权服务,这一部分还不是特别的完善。

第二个是和公安部进行身份验证,分两部分:一部分是身份信息的认证,另一部分是人像识别认证。我们的保单百分之九十几都是通过互联网卖出去的,我们的营销员会拿着立保通给客户拍张照片,在营销过程完成的时候就会形成这样一张身份证的照片,通过这张照片来进行人像识别。

第三个是和银联商务合作,主要是验证银行账户。实际上是借助银行是因为银行的信息收集比较全面,风险控制等级比较高。我们的常规业务环节里面对客户也会有一个真实性的判断。比方说客户提供银行账户,扣款成功的次数,业务办理的方式像临柜办理,这些信息的真实性是比较高的。

为什么我们通过这么多不同的手段呢?因为在某些场景下某些手段是不适用的。通过多层次的客户信息交叉认证的方法编制成风险控制的矩阵,给客户定风险等级,后续会给客户提供差异化服务。

我们大概现在有三四千万真实的客户,现在要做的是这些数据,怎么去跟外部数据整合形成相对完善的客户画像。风控矩阵会根据客户画像做等级认证。比如做完最高等级的认证就可以在网上微信贷款了,不需要到柜面去完成贷款这个动作。这就是我们的微信实时贷,现在已经在推广了。

我先抛砖引玉吧,后面可能还有金融行业同事来分享他们的一些实践。

本文转自d1net(转载)

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
2月前
|
存储 机器学习/深度学习 SQL
大数据处理与分析技术
大数据处理与分析技术
165 2
|
3月前
|
存储 分布式计算 数据可视化
大数据常用技术与工具
【10月更文挑战第16天】
211 4
|
2月前
|
存储 分布式计算 NoSQL
【赵渝强老师】大数据技术的理论基础
本文介绍了大数据平台的核心思想,包括Google的三篇重要论文:Google文件系统(GFS)、MapReduce分布式计算模型和BigTable大表。这些论文奠定了大数据生态圈的技术基础,进而发展出了Hadoop、Spark和Flink等生态系统。文章详细解释了GFS的架构、MapReduce的计算过程以及BigTable的思想和HBase的实现。
131 0
|
3月前
|
SQL 存储 分布式计算
ODPS技术架构深度剖析与实战指南——从零开始掌握阿里巴巴大数据处理平台的核心要义与应用技巧
【10月更文挑战第9天】ODPS是阿里巴巴推出的大数据处理平台,支持海量数据的存储与计算,适用于数据仓库、数据挖掘等场景。其核心组件涵盖数据存储、计算引擎、任务调度、资源管理和用户界面,确保数据处理的稳定、安全与高效。通过创建项目、上传数据、编写SQL或MapReduce程序,用户可轻松完成复杂的数据处理任务。示例展示了如何使用ODPS SQL查询每个用户的最早登录时间。
220 1
|
24天前
|
分布式计算 大数据 数据处理
技术评测:MaxCompute MaxFrame——阿里云自研分布式计算框架的Python编程接口
随着大数据和人工智能技术的发展,数据处理的需求日益增长。阿里云推出的MaxCompute MaxFrame(简称“MaxFrame”)是一个专为Python开发者设计的分布式计算框架,它不仅支持Python编程接口,还能直接利用MaxCompute的云原生大数据计算资源和服务。本文将通过一系列最佳实践测评,探讨MaxFrame在分布式Pandas处理以及大语言模型数据处理场景中的表现,并分析其在实际工作中的应用潜力。
62 2
|
1月前
|
机器学习/深度学习 人工智能 运维
智能化运维:AI与大数据在IT运维中的应用探索####
本文旨在探讨人工智能(AI)与大数据分析技术如何革新传统IT运维模式,提升运维效率与服务质量。通过具体案例分析,揭示AI算法在故障预测、异常检测及自动化修复等方面的实际应用成效,同时阐述大数据如何助力实现精准运维管理,降低运营成本,提升用户体验。文章还将简要讨论实施智能化运维面临的挑战与未来发展趋势,为IT管理者提供决策参考。 ####
|
1月前
|
SQL 运维 大数据
轻量级的大数据处理技术
现代大数据应用架构中,数据中心作为核心,连接数据源与应用,承担着数据处理与服务的重要角色。然而,随着数据量的激增,数据中心面临运维复杂、体系封闭及应用间耦合性高等挑战。为缓解这些问题,一种轻量级的解决方案——esProc SPL应运而生。esProc SPL通过集成性、开放性、高性能、数据路由和敏捷性等特性,有效解决了现有架构的不足,实现了灵活高效的数据处理,特别适用于应用端的前置计算,降低了整体成本和复杂度。
|
2月前
|
机器学习/深度学习 存储 大数据
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系,保留最大方差信息,实现数据压缩、去噪及可视化。本文详解PCA原理、步骤及其Python实现,探讨其在图像压缩、特征提取等领域的应用,并指出使用时的注意事项,旨在帮助读者掌握这一强大工具。
113 4
|
2月前
|
机器学习/深度学习 存储 大数据
云计算与大数据技术的融合应用
云计算与大数据技术的融合应用
|
2月前
|
SQL 存储 大数据
单机顶集群的大数据技术来了
大数据时代,分布式数仓如MPP成为热门技术,但其高昂的成本让人望而却步。对于多数任务,数据量并未达到PB级,单体数据库即可胜任。然而,由于SQL语法的局限性和计算任务的复杂性,分布式解决方案显得更为必要。esProc SPL作为一种开源轻量级计算引擎,通过高效的算法和存储机制,实现了单机性能超越集群的效果,为低成本、高效能的数据处理提供了新选择。