Apache Carbondata on Preto

简介: 1.downloadapache carbondata - 1.5.3apache carbondata - 1.5.4apache spark - 2.3.2apache hadoop - 2.7.

1.download

apache carbondata - 1.5.3
apache carbondata - 1.5.4
apache spark - 2.3.2
apache hadoop - 2.7.2
presto server - 0.210
presto client - 0.210

2.Configurations

mkdir -p etc/catalog -- in presto server
touch carbondata.properties -- in presto server /conf

a).vi config.properties

######## Coordinator Configurations ##########
#
#coordinator=true
#node-scheduler.include-coordinator=false
#http-server.http.port=8086
#query.max-memory=5GB
#query.max-total-memory-per-node=5GB
#query.max-memory-per-node=3GB
#memory.heap-headroom-per-node=1GB
#discovery-server.enabled=true
#discovery.uri=http://hostname:8086
#task.max-worker-threads=4
#optimizer.dictionary-aggregation=true
#optimizer.optimize-hash-generation = false
#
##############################################
########## Worker Configurations####
#
#coordinator=false
#http-server.http.port=8086
#query.max-memory=5GB
#query.max-memory-per-node=2GB
#discovery.uri=<coordinator_ip>:8086
#
####################################

b).vi jvm.config

-server
-Xmx16G
-XX:+UseG1GC
-XX:G1HeapRegionSize=32M
-XX:+UseGCOverheadLimit
-XX:+ExplicitGCInvokesConcurrent
-XX:+HeapDumpOnOutOfMemoryError
-XX:OnOutOfMemoryError=kill -9 %p

c).vi log.properties

com.facebook.presto=INFO

d).vi node.properties

node.environment=production
node.id=c5a9ab1a-a9fe-11e9-96d8-000c2909bcd1
node.data-dir=/home/carbondata/presto-server-0.210/data

3.plugin

mkdir -p plugin/carbondata -- in presto server

cp apache-carbondata-1.5.3-bin-spark2.3.2-hadoop2.7.2.jar /home/carbondata/presto-server-0.210/plugin/carbondata

4.start server

./presto-server-0.210/bin/launcher start

./presto-server-0.210/bin/launcher run

5.presto-cli

mv presto-cli-0.210-executable.jar presto

./presto
目录
相关文章
|
消息中间件 Kafka 流计算
Apache Carbondata接入Kafka实时流数据
1.导入carbondata依赖的jar包 将apache-carbondata-1.5.3-bin-spark2.3.2-hadoop2.7.2.jar导入$SPARKHOME/jars;或将apache-carbondata-1.
1681 0
|
2月前
|
存储 消息中间件 Java
Apache Flink 实践问题之原生TM UI日志问题如何解决
Apache Flink 实践问题之原生TM UI日志问题如何解决
42 1
|
3天前
|
SQL Java API
Apache Flink 2.0-preview released
Apache Flink 社区正积极筹备 Flink 2.0 的发布,这是自 Flink 1.0 发布以来的首个重大更新。Flink 2.0 将引入多项激动人心的功能和改进,包括存算分离状态管理、物化表、批作业自适应执行等,同时也包含了一些不兼容的变更。目前提供的预览版旨在让用户提前尝试新功能并收集反馈,但不建议在生产环境中使用。
229 4
Apache Flink 2.0-preview released
|
8天前
|
存储 缓存 算法
分布式锁服务深度解析:以Apache Flink的Checkpointing机制为例
【10月更文挑战第7天】在分布式系统中,多个进程或节点可能需要同时访问和操作共享资源。为了确保数据的一致性和系统的稳定性,我们需要一种机制来协调这些进程或节点的访问,避免并发冲突和竞态条件。分布式锁服务正是为此而生的一种解决方案。它通过在网络环境中实现锁机制,确保同一时间只有一个进程或节点能够访问和操作共享资源。
25 3
|
1月前
|
SQL 消息中间件 关系型数据库
Apache Doris Flink Connector 24.0.0 版本正式发布
该版本新增了对 Flink 1.20 的支持,并支持通过 Arrow Flight SQL 高速读取 Doris 中数据。
|
2月前
|
消息中间件 监控 数据挖掘
基于RabbitMQ与Apache Flink构建实时分析系统
【8月更文第28天】本文将介绍如何利用RabbitMQ作为数据源,结合Apache Flink进行实时数据分析。我们将构建一个简单的实时分析系统,该系统能够接收来自不同来源的数据,对数据进行实时处理,并将结果输出到另一个队列或存储系统中。
162 2
|
2月前
|
消息中间件 分布式计算 Hadoop
Apache Flink 实践问题之Flume与Hadoop之间的物理墙问题如何解决
Apache Flink 实践问题之Flume与Hadoop之间的物理墙问题如何解决
43 3

推荐镜像

更多