PostgreSQL 如何潇洒的处理每天上百TB的数据增量
本文主要介绍并测试一下PostgreSQL 在中高端x86服务器上的数据插入速度,帮助企业用户了解PostgreSQL在这种纯插入场景的性能。(例如运营商网关数据,金融行业数据,产生量大,并且要求快速插入大数据库中持久化保存。)
测试结果写在前面:每32K的block存储89条记录, 每条记录约3
Phoenix入门到精通
此Phoenix系列文章将会从Phoenix的语法和功能特性、相关工具、实践经验以及应用案例多方面从浅入深的阐述。希望对Phoenix入门、在做架构设计和技术选型的同学能有一些帮助。
阿里云首席科学家周靖人:数据智能引领产业变革
1024,是开发者的节日。云栖社区也准备了一份特别的礼物:《2016杭州云栖大会回顾专题》,共计325+份PDF下载,100+场峰会与分论坛视频点播的专题送给大家!也欢迎朋友们将参会感受、学习笔记等共享给我们。
PostgreSQL 百亿数据 秒级响应 正则及模糊查询
正则匹配和模糊匹配通常是搜索引擎的特长,但是如果你使用的是 PostgreSQL 数据库照样能实现,并且性能不赖,加上分布式方案 (譬如 plproxy, pg_shard, fdw shard, pg-xc, pg-xl, greenplum),处理百亿以上数据量的正则匹配和模糊匹配效果杠杠的,.