Spark修炼之道(基础篇)——Linux大数据开发基础:第五节:vi、vim编辑器(一)

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 本节主要内容vim编辑器的三种模式移动光标输入模式修改文本作者:周志湖 微信号:zhouzhihubeyond 网名:摇摆少年梦1. vi编辑器的三种模式学会使用vi编辑器是学习linux系统的必备技术之一,因为一般的linux服务器是没有GUI界面的,linux运维及开发人员基本上都是通过命令行的方式进行文本编辑或程序编写的。vi编辑器是linu

本节主要内容

  1. vim编辑器的三种模式
  2. 移动光标
  3. 输入模式
  4. 修改文本

作者:周志湖
微信号:zhouzhihubeyond
网名:摇摆少年梦

1. vi编辑器的三种模式

学会使用vi编辑器是学习linux系统的必备技术之一,因为一般的linux服务器是没有GUI界面的,linux运维及开发人员基本上都是通过命令行的方式进行文本编辑或程序编写的。vi编辑器是linux内置的文本编辑器,几乎所有的类unix系统中都内置了vi编辑器,而其它编辑器则不一定,另外很多软件会调用vi编辑进行内容编写,例如crontab定时任务。较之于其它编辑器或GUI编辑器,vi编辑速度是最快的。vim编辑器可以看作vi的高级版本,它实现了用颜色来进行特殊信息的显示,例如在进行java程序开发是,它会对某些关键字用颜色显示。
vi编辑器:
这里写图片描述

vim编辑器:
这里写图片描述

vi编辑器有三种模式,分别是一般模式、编辑模式及命令行模式
1 一般模式,采用vi命令直接进入一般模式
例如

root@ubuntu:/home/xtwy/compresse_demo# vi /etc/profile

这里写图片描述
在一般模式下,可以进行上下左右的光标移动、删除字符、行,还可以进行复制和粘贴操作

2 编辑模式,在一般模式中按”i,l,o,O,a,A,r,R”等做任意一个字符后,将进入编辑模式,下面给出的是在一般模式下输入”i”后,得到的编辑模式窗口。
这里写图片描述
窗口最底下会显示– INSERT–,此时可以对文本内容进行编辑模式,注意因为机器上已经安装了vim,所以显示时有颜色。

3 命令行模式
在编辑模式中,按”ESC”鍵可以回到一般模式。在一般模式中,输入”:,/,?”做任意一个字符,光标将移动到窗口底部,此时可以保存编辑好的文件或离开vi编辑器等,下图给出的是输入”:”之后得到的命令行模式窗口
这里写图片描述

2. 移动光标

1 单个字符移动
在一般模式化中,采用Up Arrow, Down Arrow键可以左右进行字符移动,也可以采用键盘上的 H、L键进行字符左右移动
空格键也可以单个字符地向右移动。

2 移动到某个特定字符
采用fx命令进行字符定位,例如fs可以定位到同一行s下一次现出的位置
这里写图片描述
按下fs后光标位置
这里写图片描述

采用Fx命令,可以将光标定位到x字符在同一行上一次出现的位置

3 按word移动

w命令将光标移动到下一下word的首字母,标点符号也算一个字。例如有下列文本:

【光标在这】class Student(name:String,age:Int,val studentNo:String) extends Person

在一般模式下,按1w之后
class 【光标在这】Student(name:String,age:Int,val studentNo:String) extends Person

W命令利用空格移动光标,例如

class 【光标在这】Student(name:String,age:Int,val studentNo:String) extends Person

在一般模式下,按1W之后
class Student(name:String,age:Int,val 【光标在这】studentNo:String) extends Person

B命令利用空格向后移动光标,例如

class Student(name:String,age:Int,val 【光标在这】studentNo:String) extends Person

在一般模式下,按1W之后
class 【光标在这】Student(name:String,age:Int,val studentNo:String) extends Person

b命令利用word包括标点向后移动光标,例如

class 【光标在这】Student(name:String,age:Int,val studentNo:String) extends Person
在一般模式下,按1b之后
【光标在这】class Student(name:String,age:Int,val studentNo:String) extends Person

e命令将光标移动到下一word的尾部,例如

class Student(name:String,age:Int,val studentNo:String)【光标在这】 extends Person

在一般模式下,按1e之后

class Student(name:String,age:Int,val studentNo:String) extends【光标在这】 Person

E命令将光标移动到下一个空格分隔字的尾部,例如

class 【光标在这】Student(name:String,age:Int,val studentNo:String) extends Person

在一般模式下,按1E之后
class Student(name:String,age:Int,val【光标在这】 studentNo:String) extends Person

4 按行移动

k键、Up Arrow键移动到上一行
j鍵、Down Arrow键移动到下一行

5 句子、段落移动
( 移动句子的开始,)移动到句子的结束位置,下面只给出(的演示

Apache Spark is a fast and general-purpose cluster computing system. 【光标在这】It provides high-level APIs in Java, Scala, Python and R, and an optimized engine that supports general execution graphs. It also supports a rich set of higher-level tools including Spark SQL for SQL and structured data processing, MLlib for machine learning, GraphX for graph processing, and Spark Streaming.
Downloading

一般模式下,输入(后

【光标在这】Apache Spark is a fast and general-purpose cluster computing system. It provides high-level APIs in Java, Scala, Python and R, and an optimized engine that supports general execution graphs. It also supports a rich set of higher-level tools including Spark SQL for SQL and structured data processing, MLlib for machine learning, GraphX for graph processing, and Spark Streaming.
Downloading

{移动到段落的开始,}移动到段落的结束,下面给出}的演示

Spark Overview
【光标在这】
Apache Spark is a fast and general-purpose cluster computing system. It provides high-level APIs in Java, Scala, Python and R, and an optimized engine that supports general execution graphs. It also supports a rich set of higher-level tools including Spark SQL for SQL and structured data processing, MLlib for machine learning, GraphX for graph processing, and Spark Streaming.
Downloading

一般模式下,输入(后

Spark Overview

Apache Spark is a fast and general-purpose cluster computing system. It provides high-level APIs in Java, Scala, Python and R, and an optimized engine that supports general execution graphs. It also supports a rich set of higher-level tools including Spark SQL for SQL and structured data processing, MLlib for machine learning, GraphX for graph processing, and Spark Streaming.
Downloading
【光标在这】

5 屏幕位置移动
H(home)移动到屏幕最顶部,下面的图是没有按H键时光标位置
这里写图片描述
按完键后,
这里写图片描述
按L键可以将光标移动到屏幕最底部,下面的图是上图按L键之后的效果
这里写图片描述
按M键可以将光标移动到屏幕中间,下图是上图按M鍵后的效果
这里写图片描述

CTR+D(Down)向下翻屏移动光标,CTR+U(UP)向上翻屏移动光标,命令前面还可以加数字表示翻屏多少行

CTR+F(Forward)与PageDown键,显示下一屏文本;CTR+B(Backward)与PageUp显示上一屏改文本。

G(Globalize)命令将光标移动到指定行号,例如1G,移动到文本第一行

3. 编辑模式

1 插入文本
在一般模式下,按”I、i、a或A”进行文本插入,其中i命令用于在光标之前插入文本内容,I表示在行开始插入,a表示在光标之后插入,A则表示在行尾插入。

(I在这插入)Downloa(i在这插入)【光标在这】(a在这插入)ding(A在这插入)

2 新行输入

o表示在当行下的下方创建一个新行,O表示在当前行的上方打开一个新行

//O在光标所在行的上方插入新行
【光标在这】Downloading
//o在光标所在行的下方插入新行

3 文本替换
命令r替换单个字符,替换完成后直接返回一般模式,命令R则连接已经文本替换,手动按ESC鍵后返回一般模式

4. 修改文本

在一般模式下进行文本的修改
1 撤消修改

u撤消上一次修改

//修改前
Downloading
//修改后
DWDDDDDDDD
//在一般模式下,按u后
Downloading

U连续执行可以执行若干次撤消

2 删除字符

x删除光标右边的字符,每次删除一个,如果指定3x,则每次删除三个
X删除光标左边的字符,每次删除一个,如果指定3X,则每次删除三个

3 批量删除
常用删除命令有:
dd命令删除一行
dl删除字符,与x命令相同
d0从行首开始删除,到光标处为止
d^从行首第一个字符开始删除,到光标处为止
dw从当前光标处开始,删除到word的末尾
d3w从当前光标处开始,删除到第三个字符的末尾
d)从当前光标开始,删除到句子的末尾
d}从当前光标开始,删除到段落的末尾
d(从当前光标开始,删除到句子的开头
d{从当前光标开始,删除到段落的开头
D从当前光标开始,删除到行的末尾
d$与D等同

4 批量修改

常用命令:
cl修改当前字符
cw从光标处开始,修改到字的末尾
cb从word开始处修改,直到光标处
c)从当前光标开始,修改到句子的末尾
c}从当前光标开始,修改到段落的末尾
c(从当前光标开始,修改到句子的开头
c{从当前光标开始,修改到段落的开头
C从当前光标开始,修改到行的末尾
cc修改当前行
ncc修改从当前行开始的n行

5 文本替换

s 先删除当前字符,再输入替换字符
S 先删除当前行,再输入替换字符作为当前行

6 大小写转换
~ 如果字符是大写,则自动转换成小写,如果是小写,则自动转换成大写

添加公众微信号,可以了解更多最新Spark、Scala相关技术资讯
这里写图片描述

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
1月前
|
分布式计算 大数据 Apache
ClickHouse与大数据生态集成:Spark & Flink 实战
【10月更文挑战第26天】在当今这个数据爆炸的时代,能够高效地处理和分析海量数据成为了企业和组织提升竞争力的关键。作为一款高性能的列式数据库系统,ClickHouse 在大数据分析领域展现出了卓越的能力。然而,为了充分利用ClickHouse的优势,将其与现有的大数据处理框架(如Apache Spark和Apache Flink)进行集成变得尤为重要。本文将从我个人的角度出发,探讨如何通过这些技术的结合,实现对大规模数据的实时处理和分析。
142 2
ClickHouse与大数据生态集成:Spark & Flink 实战
|
2月前
|
Ubuntu Linux 测试技术
Linux系统之部署轻量级Markdown文本编辑器
【10月更文挑战第6天】Linux系统之部署轻量级Markdown文本编辑器
139 1
Linux系统之部署轻量级Markdown文本编辑器
|
2月前
|
存储 分布式计算 算法
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
73 0
|
2月前
|
消息中间件 分布式计算 NoSQL
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
48 0
|
2月前
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
103 0
|
1月前
|
前端开发
业余时间开发了个海报编辑器
为了满足撰写博客或录制教程视频时对高质量海报的需求,我利用业余时间开发了一款海报编辑器。第一版功能简单,支持固定尺寸、黑底白字的标题。后来经过优化,增加了背景图、模糊效果、文字样式调整等功能,使海报更具吸引力。目前该编辑器已上线,欢迎大家试用并反馈。[访问海报编辑器](https://tool.share888.top/#/poster)
77 6
业余时间开发了个海报编辑器
|
1月前
|
SQL 机器学习/深度学习 分布式计算
Spark快速上手:揭秘大数据处理的高效秘密,让你轻松应对海量数据
【10月更文挑战第25天】本文全面介绍了大数据处理框架 Spark,涵盖其基本概念、安装配置、编程模型及实际应用。Spark 是一个高效的分布式计算平台,支持批处理、实时流处理、SQL 查询和机器学习等任务。通过详细的技术综述和示例代码,帮助读者快速掌握 Spark 的核心技能。
92 6
|
1月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
115 2
|
1月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
84 1
|
1月前
|
分布式计算 大数据 OLAP
AnalyticDB与大数据生态集成:Spark & Flink
【10月更文挑战第25天】在大数据时代,实时数据处理和分析变得越来越重要。AnalyticDB(ADB)是阿里云推出的一款完全托管的实时数据仓库服务,支持PB级数据的实时分析。为了充分发挥AnalyticDB的潜力,将其与大数据处理工具如Apache Spark和Apache Flink集成是非常必要的。本文将从我个人的角度出发,分享如何将AnalyticDB与Spark和Flink集成,构建端到端的大数据处理流水线,实现数据的实时分析和处理。
72 1