Presto查询队列配置

简介: 怎么进行Presto查询队列配置,以下回答告诉你。

在你的presto安装目录下的/etc/config.properties添加


query.queue-config-file=/soft/presto-206/etc/queue_config.json

编辑你的json文件


{

 "queues": {

   "user.hive": {

     "maxConcurrent": 5,

     "maxQueued": 50

   },

   "admin": {

     "maxConcurrent": 5,

     "maxQueued": 100

   },

   "global": {

     "maxConcurrent": 3,

     "maxQueued": 5

   }

 },

 "rules": [

   {

     "user": "bob",

     "queues": ["admin"]

   },

   {

     "queues": [

       "user.hive",

       "global"

     ]

   }

 ]

}

这个配置中包含两部分,一个是queues ,一个是rules


队列定义在queues下,每个队列包含三个属性


1.queuesname 队列的名称,例如user.hive


2.maxConcurrent:改队列允许同时运行查询的最大并发数量


3.maxQueued:改队列运行同时接受的提交查询请求的最大数量


Rules的定义


规则定义在rules标签下,每个规则可以定义四个属性:


1.user:用户名,取值来源于session中的user,若在cli中默认为操作系统用户,presto jdbc为传入的用户名


2.source:sql来源,一般有两种,presto-cli和presto-jdbc


3.session:session中定义的参数,分为在System session中所包含的参数

4.queues:队列列表,可以定义多个



例如:

{

"user":"hive",

"source":".*presto-cli.*",

"queues":[

"user.hive","global"

]

}




目录
相关文章
|
7月前
|
流计算
在Flink中,你可以通过以下方法为join操作设置并行度
【2月更文挑战第27天】在Flink中,你可以通过以下方法为join操作设置并行度
135 3
|
7月前
|
消息中间件 SQL Kafka
Flink数据源问题之定时扫描key如何解决
Flink数据源是指Apache Flink用于读取外部系统数据的接口或组件;本合集将探讨Flink数据源的类型、配置方法和最佳实践,以及在使用数据源时可能遇到的错误和解决方案。
|
7月前
|
Oracle NoSQL 关系型数据库
Flink CDC 数据源问题之定时扫描key如何解决
Flink CDC数据源指的是使用Apache Flink的CDC特性来连接并捕获外部数据库变更数据的数据源;本合集将介绍如何配置和管理Flink CDC数据源,以及解决数据源连接和同步过程中遇到的问题。
|
4月前
|
存储 关系型数据库 分布式数据库
PolarDB 并行查询问题之分布式查询执行过程中的数据分发如何解决
PolarDB 并行查询问题之分布式查询执行过程中的数据分发如何解决
50 1
|
6月前
|
消息中间件 存储 Kafka
实时计算 Flink版产品使用问题之 从Kafka读取数据,并与两个仅在任务启动时读取一次的维度表进行内连接(inner join)时,如果没有匹配到的数据会被直接丢弃还是会被存储在内存中
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
6月前
|
SQL 监控 数据处理
实时计算 Flink版产品使用问题之加了一个条件,初次同步的时候,会先把所有符合条件的数据读出来吗
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
2月前
|
SQL 分布式计算 Hadoop
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
33 3
|
6月前
|
消息中间件 关系型数据库 分布式数据库
PolarDB产品使用问题之rockermq后增加一个broker节点,topic该如何同步
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。
|
7月前
|
SQL 消息中间件 数据库
实时计算 Flink版操作报错合集之监听表和维表join的时,维表的字段超过两个时就会报错如何解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
63 1
|
7月前
|
SQL 存储 Java
Hive 拉链表详解及实例
拉链表是一种数据仓库技术,用于处理持续增长且存在时间范围内的重复数据,以节省空间。它在Hive中通过列式存储ORC实现,适用于大规模数据场景,尤其当数据在有限时间内有多种状态变化。配置涉及事务管理和表合并选项。示例中展示了如何从原始订单表创建拉链表,通过聚合操作和动态分区减少数据冗余。增量数据可通过追加到原始表然后更新拉链表来处理。提供的Java代码用于生成模拟的订单增量数据,以演示拉链表的工作流程。
297 3