为什么MongoDB敢说“做以前你从未能做的事”

本文涉及的产品
云数据库 MongoDB,独享型 2核8GB
推荐场景:
构建全方位客户视图
云原生数据库 PolarDB MySQL 版,通用型 2核8GB 50GB
云原生数据库 PolarDB PostgreSQL 版,标准版 2核4GB 50GB
简介:

小编注:在MongoDB的网站上,它这样自我介绍:做以前你从未能做的事(Do What You Could Never Do Before)。为什么MongoDB敢这样说?它有什么长处与不足?今天我们给大家抛砖引玉。



一、 MongoDB是什么?


“需求是创新之母。” 虽然这是句老话,但现在依然很受用!


过去的十年,我们将数据生成、存储和分析的临界点推上一个全新的高度。这个大跃进是我们向数字化的数据驱动的经济又近了一步;这个大跃进也创造了它自身的需要。而这些问题及其解决方法通常都在大数据的保护伞之下。


想象一下:如今,脸书和谷歌产生了更多的数据,它们加在一起超过了前几年的全球数据总量。伴随数据生成的高速增长,随之而来是存储和规模的问题。看,所有人都希望脸书上的订阅能够被瞬间加载——我们憎恨端着手机和电脑在那儿傻傻等着它加载。可回头想想,什么架构才能使我们有这样快速体验?数百万的用户同时向数据库请求实时信息。再加上非结构化数据和系统需求(让您可以快速添加新功能),这看上去更像是一个不可能完成的任务。

传统的数据库很难应付这种需求,且提升规模所需的成本令人望而却步。本文给大家介绍一个新型的数据存储系统,大家管它叫做MongoDB。它提供了无架构设计、高性能、高可用性和自动规模伸缩,这是当前所需要但传统RDBMS系统无法满足的性质。



维基上这么描述MongoDB

MongoDB(源自huMONGOus一词,意为“堆积如山的”)是一个跨平台的面向文档的NoSQL数据库。MongoDB避开了传统的基于表格的关系型数据库结构,代之以具有动态结构的类JSON文档格式(MongoDB称之为BSON),从而使一些特定类型应用的数据整合更容易、更快。在GNU Affero和Apach许可下发布的MongoDB是一个免费的开源软件。


二、有谁在用MongoDB?


下面只列举其中一部分。实际上,MongoDB在全球已有一千万次以上的下载量,目前有三十万人正在学习MongoDB。



三、对比传统关系型数据库


将关系型数据库和MongoDB进行比较,就好似在比较一只狮子和一只老虎一般。虽然都是食肉动物,但是一个是独自狩猎,另一个则是群体出动。SQL(老虎)有着一个固定的数据模型,其中的数据需要遵循架构的设计,这有助于组织分析例如销售统计类的结构化数据。而另一方,MongoDB(狮子)是一个基于文档的数据库,它以文档的形式存储数据。虽然他们的方法不同,但依据组织化的需求,这两者都需要数据存储并选择数据库类型。



四、使用MongoDB有什么优点?




从上面的附图你可以发现,当服务器上的查询数量增加时,MongoDB就明显是一个胜利者。MongoDB 非常适用于实时分析,它有着低延迟以及针对需求的高可用性。


MongoDB已经进入了前沿领域,因为各类组织需要分析半结构化、非结构化以及地理或空间数据,更因为现今世界原先的结构化数据正在被快速的改变。


传统的关系型数据库系统不能完全应付得了这些需求,因为它们固有的结构不允许它们处理这样的需求。虽然关系型数据库系统也在改变,来迎合数据的大爆发,但最适合处理当今数据的数据库仍是像MongoDB这类文档数据库。


五、MongoDB的局限性是什么?


以下列举了一些MongoDB的限制。

1.最大的文件不能超过16MB

2.最大文件嵌套层级为100(指文件嵌套文件再嵌套文件)

3.索引区不能超过1024字节。

4.每个集合最多为64个索引。

5.创建一个复合索引最多使用31个字段。

6.全文本搜索和地理位置索引是互斥的。

7.在32位机器上,一个固定集合(capped collection)中的文件数量大小是有限制的。但64位机器上则对文件数量大小没有限制。

8.在Windows系统上,MongoDB不能存储超过4TB的数据(去除日志后为8TB)

9.在单个复制集中最多可有12个节点。

10.在单个复制集中最多可有7个投票节点。

11.如要回滚超过300MB的数据,需要进行人工干预。

12.在分片集群(sharded cluster)中无法使用组命令。

13.在分片集群中无法使用 $isolated, $snapshot, geoSearch。

14.你无法在 $where中涉及到数据库对象。

15.为了分片一个集合,它必须小于256GB。

16.在分片集群中对单条记录(非多条)的更新/移出必须包含分片密钥。同样命令针对多条记录执行时则可以不包含分片密钥。

17.分片密钥最大值为512字节。

18.一旦分片完成,一个集合的分片密钥值将无法改变。


除了这些限制以外,在关系型数据库系统中用约束来防止数据被意外删除的功能在MongoDB或其他NoSQL数据库系统中无法实现。 也可能有其它问题,例如像下面列示的这个,为了存储多层数据而违反了标准范式。



一个用户有许多朋友,并可能其中之一就是他自己。人们可能反复对自身进行点赞、评论或两者皆有的行为动作。这种类型的反复模式使得它更难将一个活动流反规范化(de-normalize)为一份独立的文档


MongoDB也像其它科技一般,非常公平的共享了它的局限性和缺陷,并且随着版本更新,它们将很有希望被解决。


原文发布时间为:2015-06-23

本文来自云栖社区合作伙伴“大数据文摘”,了解相关信息可以关注“BigDataDigest”微信公众号

相关文章
|
5天前
|
数据采集 人工智能 自然语言处理
3分钟采集134篇AI文章!深度解析如何通过云无影AgentBay实现25倍并发 + LlamaIndex智能推荐
结合阿里云无影 AgentBay 云端并发采集与 LlamaIndex 智能分析,3分钟高效抓取134篇 AI Agent 文章,实现 AI 推荐、智能问答与知识沉淀,打造从数据获取到价值提炼的完整闭环。
390 93
|
6天前
|
域名解析 人工智能
【实操攻略】手把手教学,免费领取.CN域名
即日起至2025年12月31日,购买万小智AI建站或云·企业官网,每单可免费领1个.CN域名首年!跟我了解领取攻略吧~
|
5天前
|
SQL 人工智能 自然语言处理
Geo优化SOP标准化:于磊老师的“人性化Geo”体系如何助力企业获客提效46%
随着生成式AI的普及,Geo优化(Generative Engine Optimization)已成为企业获客的新战场。然而,缺乏标准化流程(Geo优化sop)导致优化效果参差不齐。本文将深入探讨Geo专家于磊老师提出的“人性化Geo”优化体系,并展示Geo优化sop标准化如何帮助企业实现获客效率提升46%的惊人效果,为企业在AI时代构建稳定的流量护城河。
391 156
Geo优化SOP标准化:于磊老师的“人性化Geo”体系如何助力企业获客提效46%
|
5天前
|
数据采集 缓存 数据可视化
Android 无侵入式数据采集:从手动埋点到字节码插桩的演进之路
本文深入探讨Android无侵入式埋点技术,通过AOP与字节码插桩(如ASM)实现数据采集自动化,彻底解耦业务代码与埋点逻辑。涵盖页面浏览、点击事件自动追踪及注解驱动的半自动化方案,提升数据质量与研发效率,助力团队迈向高效、稳定的智能化埋点体系。(238字)
272 158
|
13天前
|
机器人 API 调度
基于 DMS Dify+Notebook+Airflow 实现 Agent 的一站式开发
本文提出“DMS Dify + Notebook + Airflow”三位一体架构,解决 Dify 在代码执行与定时调度上的局限。通过 Notebook 扩展 Python 环境,Airflow实现任务调度,构建可扩展、可运维的企业级智能 Agent 系统,提升大模型应用的工程化能力。