Unit10 作业

简介:

<<<第十单元练习题>>>

1.配置desktop主机和server主机的日志服务要求如下:

*)desktop主机中的日志全部定向到/var/log/westos文件中

wKioL1jvLjuRia4fAABKfEhaJXI927.jpg

*)时时同步desktop主机中的所有日志到server中

 wKiom1jvLkezpaavAAByhCfWZPs878.jpg

2.在server主机中用timedatectl命令设定系统时区为上海,时间为11:11:11

wKiom1jvLlaxTMx8AABRfMpsnN8240.jpg

3.配置server主机的chronyd服务,使server主机中的时间可以被desktop主机同步

wKiom1jvLmPCbNZ9AABCd1M1w2g756.jpg

4.同步server主机中的时间到desktop主机中

wKiom1jvLn_z9t8lAABHy4dGEbE981.jpg

5.配置系统中的systemd-journal程序,使journal命令可以查看到关机前的日志

wKiom1jvLo3yQhALAAB-uGzsXns398.jpg


本文转自  夏梨巴人  51CTO博客,原文链接:http://blog.51cto.com/12774035/1915648

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
6月前
68 Azkaban Command类型多job工作流flow
68 Azkaban Command类型多job工作流flow
27 0
|
9月前
|
机器学习/深度学习 Kubernetes 关系型数据库
gitlab--job 作业运行控制 tag、when、allow_failure、retry、timeout、parallel
gitlab--job 作业运行控制 tag、when、allow_failure、retry、timeout、parallel
|
机器学习/深度学习 分布式计算 网络协议
Spark练习 - 提交作业到集群 - submit job via cluster
Spark练习 - 提交作业到集群 - submit job via cluster
102 0
Spark练习 - 提交作业到集群 - submit job via cluster
|
分布式计算 Spark
SparkStreming:使用Checkpoint创建StreamingContext修改executor-cores、executor-memory等资源信息不生效。
在使用SparkStreaming时,使用StreamingContext.getOrCreate(checkpointDirectory, functionToCreateContext _)创建StreamingContext。
1039 0