开发者社区> 问答> 正文

oceanbase 写入数据 memory or reach tenant memory limit

从hive把一张2亿数据的表 同步到oceanbase里面 同步到9千万的时候报了这个错no memory or reach tenant memory limit 报错之后 同步一万数据也同步不了 还是报这个错 no memory or reach tenant memory limit 已经按照社区文档上面 修改了这个变量 alter system set writing_throttling_trigger_percentage=90; 还是无法避免 请问是什么原因?

展开
收起
游客xwygwxvzvclqc 2023-04-20 10:11:09 787 0
2 条回答
写回答
取消 提交回答
  • 值得去的地方都没有捷径

    这个错误通常表示内存不足或者内存限制已经达到。您可以尝试以下方法解决该问题:

    增加系统内存:如果您的系统内存不足,可以考虑增加系统内存。

    调整内存限制:您可以尝试调整内存限制,以便更好地适应您的数据大小。您可以在配置文件中修改相关参数,例如max_memory_usage、max_memory_usage_for_all_queries等。

    调整写入限制:您可以尝试调整写入限制,以便更好地适应您的数据大小。您可以在配置文件中修改相关参数,例如writing_throttling_trigger_percentage、writing_throttling_delay等。

    检查同步程序:如果您使用的是同步程序,可以检查程序的配置和性能,以确保其能够正确地同步数据。

    检查网络连接:如果您的网络连接不稳定或者带宽不足,也可能导致此错误。您可以检查网络连接,以确保其能够支持数据同步。

    2023-04-20 18:50:52
    赞同 展开评论 打赏
  • 1.增加内存资源:尝试在同步之前提高内存容量或释放已用内存以腾出更多的内存空间,可以通过增加RAM容量、清除缓存等方式来实现。

    2.优化同步策略:对于2亿数据的表,应该将同步任务拆分成多个小任务,并针对每个任务采取适当的同步策略,例如增量同步、批量同步、分区同步等,从而避免一次性处理过多数据导致内存不足的问题。

    2023-04-20 10:23:14
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
开源HTAP OceanBase产品揭秘 立即下载
云数据库OceanBase 架构演进及在金融核心系统中的实践 立即下载
自研金融数据库OceanBase的创新之路 立即下载