最近参与讨论最多的是大数据规划、大数据应用,及如何利用大数据去帮助企业做数字化转型管理。我觉得这些的概念性很强,如果没有亲身参与过成功的企业大数据及应用建设的经验,做这些还是很牵强,虽然现在互联网的信息很丰富,各种资源都能搜索到,但能找到的资料基本上都只能算是“指南”,即是一些很粗的理论,或者是某些公司的推文,为的只是介绍其他公司的产品,真正能有用的(能指导落地的)少着又少。
那么,当前的大数据、企业数字化为什么这么火?而在过去的很长一段时间里却没有提急呢,这里面肯定有他的推运因素。
一、产生的背景及驱动
伴随着当前企业数字化建设的浪潮,大数据(云计算/云存储)也被推到了浪潮上。为什么会出现浪潮呢?从根本上来说是由于IT技术的高速改革发展,推运了这波“数字化建设”的。有以下几个方面:
1、 超大容量存储(云存储/分布式存储)
大家可能记得在2000年左右,计算机的存储的上限基本上是GB,甚至个人电脑可能是以Mb为单位,硬盘的容量越大金额越贵,在当时的技术和资源制约下,只有大企业可能会用上IBM/HP/的小型机和EMC存储,而中小企业可能用的就是普通的台式机当服务器和普通的机械盘,而且很多系统都是单机,能存储的数据量有限,基本上只存储重要的数据。在当时的环境下,是不可能产生现在所说的“大数据”,因为那肯定要花很多成本。
随着存储技术的改革改进,现在大公司的数据都是以TB、PB为单位,甚至是EB,存储的成本很低,而且有各种云存储,能提供更低成本更易维护的服务,让大中小企业都能享受到存储更多数据的服务(因为不需要花太多钱),帮企来解决了大数据量存储的限制,也是大数据发展的重要因素。
2、 分布式、大型计算能力(云计算)
在计算机产生后的一段相当长的时间里,计算机的处理大部分以单机为主,单核cpu,计算处理能力低下,随着Intel和AMD这两家公司的技术竞争,及工艺改进,现在的CPU都是多核处理器,有很高的主频,能同时处理各种计算任务,而且在Google提出分布式计算后,加上芯片板子工艺的发展,更加强了超大规模的数据计算处理能力,而且随着现在编程技术和云技术的结合,可以实现跨集群计算,为大中小企业提供海量数据处理加工的能力,而不会像过去在单台主机的情况下,难以处理TB级别的数据。这也为大数据的计算提供了算力的基础,让数据通过计算处理后来发挥其价值。
3、 网络互联互通及带宽
既然有了便宜的海量存储和超大规模算力的支撑,那么就能形成大数据吗?其实还是不能,如果当今的网络还停留在通过512k 的“猫”来拨号上网,或者通用2g 的手机网络来进行数据传输,那么将无法满足各种各样数据的采集,海量数据的传输。幸好网络及带宽技术的超高速发展,如光纤通信、千兆网卡、万兆网卡、4G、5G等,让数据的快速大批量传输入成为可能。并且在网络建设和使用费用、通讯费用大幅降低下,让千千万万的普通人都可以接入到网络中,让原本断绝的一个个信息岛都联通起来,通过这些产生的数据,为海量数据提供丰富的来源,更真实,汇集成各类有规则、无规则的数据,这些也是大数据必不可少的。
有了上面这些关键技术的改革与提升,让原本的传统企业,中小企业不再担心成本而大胆的用上各类信息化系统,推动了企业的信息化、流程化的建设,让越来越多的企业都拥有了自己的各类数据(而不胆心存储成本),同时智能设备的普及,也让人都可以成为一个数据的生产端,让移动化办公与生活成为现实。
说白点,驱动这次企业数字化浪潮的驱动力是大型计算能力,而在往深里看,是使用这些资源的成本大幅降低,及成熟度,让少部分有技术实力及积累的大公司抢在前头,去深挖大数据、及去推动企业由传统的流程化管理转向数字化的管理(当然推动因素还有其他,比如国际竞争格局、原材料/能源危机、保护主义等),例如国外的宝洁公司搞数字化就比较早。
二、总结
当然,企业数字化过程,大数据的建设,不同的人有不同的看点,或者不同的思考路径,但其实真正去做时,会遇到无从下手(除非真有做过),可能表面看上去很简单,不就是做几张报表吗?如果是这样,那可能用一些报表工具/或者BI就可以了。想要做企业数字化(大数据建设),首先要提升数字化思维,要有全局的数据概念,如果只是停留在某部分的数据,那其实和现状的企业信息化系统没差别。数字化思维,即要有:数据思维、系统思维、敏捷思维、用户思维、产品思维、生态思维等方面。