HDP2.6.5更换spark版本为2.4.5 与carbondata2.0.1集成

简介: 继承Thread类实现Runnnable接口实现Callable接口

java并发编程(二)java线程介绍
一、使用和创建
相信学过的同学,只需要记住如下三句就知道如何使用了:

继承Thread类
实现Runnnable接口
实现Callable接口

但是实际使用过程中,并不需要我们的类去继承或实现上面这几个类或接口,下面我们看看常用方式。

1.1 Thread
直接使用Thread对象:

// 创建线程对象
Thread t = new Thread() {
public void run() {
// 要执行的任务
}
};
// 启动线程
t.start();
1.2 Runnable
使用 Runnable 配合 Thread:此种方法是将线程与任务分开的方式,其实Thread代表线程,而Runnable代表人物,要将任务放在线程当中执行.

Runnable runnable = new Runnable() {
public void run(){
// 要执行的任务
}
};
// 创建线程对象
Thread t = new Thread( runnable );
// 启动线程
t.start();
Thread与Runnable的关系如下:

Thread实现了Runnable接口,并且Runnable是有一个函数式接口(我在java8中讲解了何为函数式接口,并且如何使用),只有一个run方法。

此方式的优点:

用 Runnable 更容易与线程池等高级 API 配合
用 Runnable 让任务类脱离了 Thread 继承体系,更灵活
1.3 Callable
Callable是带有返回值的线程使用方式,通常配合FutureTask使用。

/**
 * FutureTask配合callable
 * @param args
 * @throws Exception
 */
public static void main(String[] args) throws Exception {
    // 创建任务对象
    FutureTask<Integer> task = new FutureTask<>(new Callable<Integer>() {
        @Override
        public Integer call() {
            return 100;
        }
    });
    // 参数1 是任务对象; 参数2 是线程名字,推荐
    new Thread(task, "t3").start();
    // 主线程阻塞,同步等待 task 执行完毕的结果
    Integer result = task.get();

    System.out.println(result);
}

如上的代码可以使用lambda表达式缩减:

FutureTask task = new FutureTask<>(() -> 100);
二、查看线程
在不同的环境上有不同的线程查看方式,如下所示:

2.1 windows
任务管理器可以查看进程和线程数,也可以用来杀死进程
tasklist 查看进程
taskkill 杀死进程
2.2 linux
ps -ef 查看所有进程
ps -fT -p 查看某个进程(PID)的所有线程
kill 杀死进程
top 按大写 H 切换是否显示线程
top -H -p 查看某个进程(PID)的所有线程
2.3 java命令
jps 命令查看所有 Java 进程
jstack 查看某个 Java 进程(PID)的所有线程状态
jconsole 来查看某个 Java 进程中线程的运行情况(图形界面)
以如下方式配置jconsole:

需要以如下方式运行你的 java 类
java
-Djava.rmi.server.hostname=ip地址
-Dcom.sun.management.jmxremote.port=连接端口
-Dcom.sun.management.jmxremote.ssl=是否安全连接
-Dcom.sun.management.jmxremote.authenticate=是否认证 java类

修改 /etc/hosts 文件将 127.0.0.1 映射至主机名
如果要认证访问,还需要做如下步骤

复制 jmxremote.password 文件
修改 jmxremote.password 和 jmxremote.access 文件的权限为 600 即文件所有者可读写
连接时填入 controlRole(用户名),R&D(密码)
三、线程运行原理
方便理解,将java的JMM(java内存模型)放在下面,但不是本章节讲解的重点:

JMM.png
3.1 JVM之栈与栈帧
在java的内存模型当中,有一块区域被称为java虚拟机栈(Java Virtual Machine Stacks)。当然还有本地方法栈,这个栈是给原生native方法使用的,本文以java虚拟机栈作为讲解。

我们都知道 JVM 中由堆、栈、方法区所组成,其中栈(java虚拟机栈)内存是给谁用的呢?其实就是线程,每个线程启动后,虚拟机就会为其分配一块栈内存。

在虚拟机栈内,每个方法会生成一个栈帧。每个栈帧代表一次次的方法调用,一个方法的执行到执行完成的过程,代表栈帧从入栈到出栈的过程。

每个栈由多个栈帧(Frame)组成,对应着每次方法调用时所占用的内存。
每个线程只能有一个活动栈帧,对应着当前正在执行的那个方法。
虚拟机栈会抛出StackOverflowError和OutOfMemoryError。

栈帧的组成如下所示:

栈帧.png
3.2 线程上下文切换
线程上下文切换(Thread Context Switch):因为以下一些原因导致 cpu 不再执行当前的线程,转而执行另一个线程的代码。

线程的 cpu 时间片用完
垃圾回收
有更高优先级的线程需要运行
线程自己调用了 sleep、yield、wait、join、park、synchronized、lock 等方法
当 Context Switch 发生时,需要由操作系统保存当前线程的状态,并恢复另一个线程的状态,Java 中对应的概念就是程序计数器(Program Counter Register),它的作用是记住下一条 jvm 指令的执行地址,是线程私有的。

状态包括:程序计数器、虚拟机栈中每个栈帧的信息,如局部变量、操作数栈、返回地址等。
Context Switch 频繁发生会影响性能

目录
相关文章
|
7月前
|
消息中间件 Java Kafka
Springboot集成高低版本kafka
Springboot集成高低版本kafka
249 0
|
1月前
|
分布式计算 大数据 Apache
ClickHouse与大数据生态集成:Spark & Flink 实战
【10月更文挑战第26天】在当今这个数据爆炸的时代,能够高效地处理和分析海量数据成为了企业和组织提升竞争力的关键。作为一款高性能的列式数据库系统,ClickHouse 在大数据分析领域展现出了卓越的能力。然而,为了充分利用ClickHouse的优势,将其与现有的大数据处理框架(如Apache Spark和Apache Flink)进行集成变得尤为重要。本文将从我个人的角度出发,探讨如何通过这些技术的结合,实现对大规模数据的实时处理和分析。
139 2
ClickHouse与大数据生态集成:Spark & Flink 实战
|
1月前
|
分布式计算 大数据 OLAP
AnalyticDB与大数据生态集成:Spark & Flink
【10月更文挑战第25天】在大数据时代,实时数据处理和分析变得越来越重要。AnalyticDB(ADB)是阿里云推出的一款完全托管的实时数据仓库服务,支持PB级数据的实时分析。为了充分发挥AnalyticDB的潜力,将其与大数据处理工具如Apache Spark和Apache Flink集成是非常必要的。本文将从我个人的角度出发,分享如何将AnalyticDB与Spark和Flink集成,构建端到端的大数据处理流水线,实现数据的实时分析和处理。
70 1
|
5月前
|
XML 关系型数据库 MySQL
支付系统----微信支付19---集成MyBatis-plus,数据库驱动对应的依赖版本设置问题,5没版本没有cj这个依赖,mysql驱动默认的是版本8,这里是一个父类,数据库都有,写个父类,继承就行
支付系统----微信支付19---集成MyBatis-plus,数据库驱动对应的依赖版本设置问题,5没版本没有cj这个依赖,mysql驱动默认的是版本8,这里是一个父类,数据库都有,写个父类,继承就行
|
7月前
|
SQL 分布式计算 大数据
Paimon 与 Spark 的集成(二):查询优化
通过一系列优化,我们将 Paimon x Spark 在 TpcDS 上的性能提高了37+%,已基本和 Parquet x Spark 持平,本文对其中的关键优化点进行了详细介绍。
118355 30
|
7月前
|
SQL 分布式计算 大数据
Spark 的集成
Spark 的集成
78 2
|
7月前
|
分布式计算 Java Scala
spark 与 scala 的对应版本查看、在idea中maven版本不要选择17,弄了好久,换成11就可以啦
spark 与 scala 的对应版本查看、.在idea中maven版本不要选择17,弄了好久,换成11就可以啦
461 2
|
7月前
|
存储 缓存 分布式计算
Spark与云存储的集成:S3、Azure Blob Storage
Spark与云存储的集成:S3、Azure Blob Storage
|
2月前
|
Java Maven Docker
gitlab-ci 集成 k3s 部署spring boot 应用
gitlab-ci 集成 k3s 部署spring boot 应用
|
27天前
|
消息中间件 监控 Java
您是否已集成 Spring Boot 与 ActiveMQ?
您是否已集成 Spring Boot 与 ActiveMQ?
52 0

热门文章

最新文章

相关实验场景

更多