让社保大数据“活起来”

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

 数据不是为了当摆设,关键是要依托数据使制度安排更加科学,背后的改革也要尽快突破

  第10亿张社保卡近日送到参保者手中,社保卡所承载的大数据也引起广泛关注。

  这数据的确够“大”——看参保人数,已达10亿,最终将实现“人手一卡”;看年龄跨度,从出生不久的婴儿到耄耋老人,都有自己一张卡;看功能,持卡挂号看病 、持卡取养老金、持卡领补贴、持卡消费……功能上百项,新数据随时在生成。“记录一生、保障一生、服务一生”是社保卡的发展目标。从1999年首张社保卡诞生至今,“记录一生”已基本实现。然而,谈到“保障”“服务”,与老百姓的期望显然还有距离。办理社保业务,为何还总要一趟趟跑?单位未按员工实际工资缴纳社保,监管部门为何不能及时发现?社保“全国漫游”呼吁这么多年,为何仍然未能实现?老百姓的种种不满,指向社保大数据的不足之处:数据有了,但运用得还不够“活”。

  数据不是为了当摆设,关键是要依托数据使制度安排更加科学。知道“是什么”,方知“怎么办”。过去,不少与百姓生活息息相关的领域底数不清,使政府决策格外为难,既担心政策走偏、好心收不到好效果,又发愁缺少数据支撑,政策措施难以解释清楚、让人信服。有了大数据,社保总体状况清楚,为精准施策打下了基础。政策制订方首先应回头检视:既有政策是否还存在不尽合理、不够完善的方面?哪些人的养老保险还是空白?流动就业时最容易“断”的险种是哪个?社保经办方也要用好数据,看看哪些流程可以简化调整,最大程度便利百姓。对于老百姓的新诉求,也要用好数据,分析研判,让新政策更科学、更接地气,赢得绝大多数人的认同。

  社保大数据,不能关在自己的小天地里。异地领养老金,先要“证明自己活着”——这样的事着实荒诞。防止养老金冒领,难道没有更好的方法?事实上,随着信息技术的迅猛发展,许多行业都拥有了属于自己的数据信息库。参保者生存认证,完全可以借助社保大数据与公安户籍、民政殡葬、医院治疗、社区人口管理等数据信息进行动态比对,实时掌握参保人的状况。每一类数据都有其局限性,打破部门间、行业间的障碍,实现信息联网共享,数据可以释放更大的力量。

  想让数据“活起来”,背后的改革要尽快突破。异地就医、异地养老,只要一涉及“异地”,参保者就发愁:要奔走、要开证明甚至还要垫资……此前,许多人以为只要建起全国统一的平台、完成数据联网,“漫游”难题就会迎刃而解。今天,统一标准的社保卡已覆盖10亿人,为何一些正常的社保诉求仍然做不到“全国通”?说到底,社保漫游,不是难在技术,而是难在“转出地”与“转入地”政府间利益的重新分配。社保目前以省级统筹为主,个别地方甚至还是市县级统筹,征缴方往往将收上来的社保基金看作本地资源,总想着“少花点、多收点”。如果政策不调整、地区间利益壁垒不打破,即使数据覆盖13亿人,也只是电脑里的一个个数字。

  汇总10亿参保者的大数据,无疑是了不起的进步。老百姓珍视手中的社保卡,也希望相关部门能用好大数据、让百姓真正受益。这给社保既有运行方式带来新挑战,也考验着社保改革攻坚克难的勇气。

本文转自d1net(转载)

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
16天前
|
存储 大数据 数据挖掘
【数据新纪元】Apache Doris:重塑实时分析性能,解锁大数据处理新速度,引爆数据价值潜能!
【9月更文挑战第5天】Apache Doris以其卓越的性能、灵活的架构和高效的数据处理能力,正在重塑实时分析的性能极限,解锁大数据处理的新速度,引爆数据价值的无限潜能。在未来的发展中,我们有理由相信Apache Doris将继续引领数据处理的潮流,为企业提供更快速、更准确、更智能的数据洞察和决策支持。让我们携手并进,共同探索数据新纪元的无限可能!
62 11
|
21天前
|
存储 分布式计算 大数据
MaxCompute 数据分区与生命周期管理
【8月更文第31天】随着大数据分析需求的增长,如何高效地管理和组织数据变得至关重要。阿里云的 MaxCompute(原名 ODPS)是一个专为海量数据设计的计算服务,它提供了丰富的功能来帮助用户管理和优化数据。本文将重点讨论 MaxCompute 中的数据分区策略和生命周期管理方法,并通过具体的代码示例来展示如何实施这些策略。
51 1
|
26天前
数据平台问题之在数据影响决策的过程中,如何实现“决策/行动”阶段
数据平台问题之在数据影响决策的过程中,如何实现“决策/行动”阶段
|
29天前
|
存储 监控 安全
大数据架构设计原则:构建高效、可扩展与安全的数据生态系统
【8月更文挑战第23天】大数据架构设计是一个复杂而系统的工程,需要综合考虑业务需求、技术选型、安全合规等多个方面。遵循上述设计原则,可以帮助企业构建出既高效又安全的大数据生态系统,为业务创新和决策支持提供强有力的支撑。随着技术的不断发展和业务需求的不断变化,持续优化和调整大数据架构也将成为一项持续的工作。
|
1月前
|
分布式计算 DataWorks 关系型数据库
DataWorks产品使用合集之ODPS数据怎么Merge到MySQL数据库
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
1月前
|
消息中间件 数据采集 JSON
大数据 - DWD&DIM 行为数据
大数据 - DWD&DIM 行为数据
34 1
|
21天前
|
分布式计算 安全 大数据
MaxCompute 的安全性和数据隐私保护
【8月更文第31天】在当今数字化转型的时代背景下,企业越来越依赖于大数据分析来推动业务增长。与此同时,数据安全和隐私保护成为了不容忽视的关键问题。作为阿里巴巴集团推出的大数据处理平台,MaxCompute(原名 ODPS)致力于为企业提供高效、安全的数据处理解决方案。本文将探讨 MaxCompute 在数据安全方面的实践,包括数据加密、访问控制及合规性考虑等方面。
41 0
|
1月前
|
机器学习/深度学习 人工智能 分布式计算
理解并利用大数据的力量:解锁数据背后的价值
【8月更文挑战第7天】大数据已成为推动社会进步和经济发展的重要力量。通过理解并利用大数据的力量,企业可以解锁数据背后的价值,优化业务流程、提升决策效率和创新能力。然而,大数据应用也面临着诸多挑战和风险,需要企业不断学习和实践以应对。相信在未来的发展中,大数据将为我们带来更多的惊喜和机遇。
|
1月前
|
数据采集 数据挖掘 Python
python爬虫去哪儿网上爬取旅游景点14万条,可以做大数据分析的数据基础
本文介绍了使用Python编写的爬虫程序,成功从去哪儿网上爬取了14万条旅游景点信息,为大数据分析提供了数据基础。

热门文章

最新文章