python,c#,scala
应用场景 当需要使用SQL Server数据库的时候,需要在服务器上安装SQL Server数据库,那么操作步骤如下所示。
应用场景 当在使用nginx的时候,不是仅仅部署一个空的nginx就可以了,而是需要和具体的业务系统接入。 操作步骤 1.
应用场景 对于一个大型网站来说,负载均衡是永恒的话题,顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。
应用场景 安装部署完mongodb之后,需要对其进行使用,在使用过程中,对于常见操作做一个简单汇总整理。 操作步骤 MongDB是一个高性能,开源,无模式的文档型NosQL数据库。
应用场景 MongoDB是一个基于分布式文件存储的数据库。由C++语言编写。旨在为WEB应用提供可扩展的高性能数据存储解决方案。
应用场景 在使用redis的时候发现并不需要密码等,这样使得数据库的数据安全性受到威胁,所以必要时得给数据进行加密设置。
应用场景 当安装完redis后,通过shell端或者客户端对redis进行操作,但是缺少了对redis的监控工具,下面介绍redis的web端的监控工具Webdis。
应用场景 当redis内存数据库安装完毕之后,需要对redis进行操作使用,可以通过cs客户端,或者直接通过shell端进行连接redis然后对内存数据库进行操作使用。
应用场景 Redis是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。
应用场景 针对oracle的使用,有一些常用的功能,在此做一个小小的总结。 操作步骤 1. 3个默认的帐户 sys change_on_install 网络管理员 ...
应用场景 在linux服务器上,需要使用oracle数据库,那么就需要安装oracle数据库服务器,然后进行数据库软件的使用。
应用场景 系统分析师是计算机行业的高级人才,是一个大型软件项目的核心领导者,他的主要职责是对软件项目进行整体规划、需求分析、设计软件的核心架构、指导和领导项目开发小组进行软件开发和软件实现,并对整个项目进行全面的管理工作。
应用场景 当安装部署完solr之后,我们可以通过solrj来连接solr,进行新建,删除索引等等操作,达到全文检索的效果。
Hadoop笔试题一答案 一、选择题20分 1-5 CADDC 5-10 DCBBB 二、填空题30分 11.
Hadoop笔试题一 一、选择题(2分每题,共20分) 1.下面哪个程序负责 HDFS 数据存储。 A NameNode B Jobtracker C Datanode D tasktracker 2.
应用场景 docker使用的时候,有自己一套专业的命令模式,其中有镜像,容器,仓库等等,其中各种命令用法比较容易混淆,这里粗略的整理一下。
应用场景 如果服务器上有很多镜像和容器,每次查看通过URL,命令行十分不方便,可以通过安装配置shipyard容器管理工具来统一监控管理。
应用场景 当一个应用部署在tomcat后,发现访问量越来越多,服务器完全无法承受住压力,导致系统卡顿延时等,此时需要通过nginx技术将应用压力进行平均分配到其他服务器,将多台服务器一起提供资源,通过nginx来协调资源进行负载均衡。
应用场景 有时候docker公共镜像库中下载下来的镜像,可能不是自己想要的,没办法,自己也可以制作一个自己想要的镜像,然后发布到公共资源镜像中,也可以保存到私有仓库中,以防后期自己也需要使用。
应用场景 程序员开发应用,开发后需要提交svn,然后从svn拉取代码,进行构建,发布到tomcat中,发布,然后看呈现效果,这样的工作是频繁反复的在进行的,浪费了程序员的大量时间,那么能不能把这些工作自动化呢,只需要程序员更新代码到svn,然后自动的构建,发布,呈现效果,当然是可以的,通过jenkins和docker来实现。
应用场景 docker有公共仓库,相当于在公共仓库中存在着大量的镜像资源,但是如果本地要使用这些镜像,需要手动pull到本地,如果下次再用还需要pull,并且docker的公共仓库是在国外的,这样频繁的pull一个镜像很耗时,而且网路受限,经常容易断掉,很麻烦。
应用场景 给你一台笔记本,笔记本的系统是windows的,如果想使用linux系统,那么得在windows上安装虚拟机,然后安装linux系统,一般一台8G内存的笔记本,可以建并启动6-7个1G内存的linux虚拟机,如果再创建并启动虚拟机那么电脑将无法承受,如果用了docker技术,那么就可以建成千上万个docker容器,一个docker容器就相当于一个linux虚拟机,它可以将计算机资源利用最大化,效率化,所以docker是一个虚拟的技术。
应用场景 在开发程序过程中,windows端可能需要新建maven项目,通过pom来管理jar包,那么就需要在windows端安装maven工具。
应用场景 当杂乱无章的数据,经过数据清洗后,得到了想用的数据,但是查看这些数据通过数据库只能看到数据本身,无法看到其中的规律,可以通过数据分析展示工具,图形化展示数据,使数据更形象化的展现在用户面前,更容易看出规律,得出结论,还可以监控实时数据,实时刷新,比如双十一大屏等等。
应用场景 一个web应用,或者网页,网站,在tomcat容器中发布了,想放到公网上,让大家都能访问,而不是仅仅在局域网中,这样如何设置呢? 操作步骤 首先,您得有一个公网服务器,也就是外网IP地址,或者更...
应用场景 在linux端,tomcat的开启,关闭,重启,可以通过命令行切换到目录,然后执行startup.sh命令等,如果时间长了tomcat的目录忘记了,还要重新回头熟悉tomcat环境,就比较耗时了,如果可以通...
应用场景 tomcat的开启,关闭,重启,可以通过命令行startup等等,但是用命令的话会比较麻烦,如果可以配置成服务,直接右击服务名,就可以开关重启tomcat服务,那就方便多了! 操作步骤 在tomcat目录下,运行bin目录下的 InstallTomcat-NT.
应用场景 应用发布需要应用服务器,简单的例如tomcat容器,将页面发布,提供给大家访问! 操作步骤 1. Linux端tomcat安装部署包下载 linux端tomcat安装包下载地址,下载后上传到服务器的opt目录下 2.
应用场景 应用发布需要应用服务器,简单的例如tomcat容器,将页面发布,提供给大家访问! 操作步骤 1. windows端tomcat部署包下载 windows端tomcat部署包下载地址,下载后解压缩到D盘根目录,修改tomcat目录为tomcat7 2.
应用场景 weblogic在linux端安装完毕后,启动,关闭weblogic比较麻烦,可以通过配置,将weblogic注册成服务,只要简单的服务start,stop即可开关服务,十分方便。
应用场景 应用服务器,将做好的网站应用,需要发布到网上让其他人访问,那么我们就需要应用服务器,比如tomcat,比如jboss,还有这里讲的weblogic,他们都作为应用服务器,各有优势,需要权衡使用。
应用场景 应用服务器,将做好的网站应用,需要发布到网上让其他人访问,那么我们就需要应用服务器,比如tomcat,比如jboss,还有这里讲的weblogic,他们都作为应用服务器,各有优势,需要权衡使用。
应用场景 当我们把清理好的数据,放到了数据库中,浏览数据的时候,直接访问数据库,或者通过JDBC连接代码返回数据,很不方便,我们需要通过报表的形式,通过工具连接数据库,然后进行适当的配置,图形化展示数据,使数据清晰明了的展示在面前,更加方便领导查阅。
应用场景 在使用Hive的过程中,编写了HQL语句,发现HQL执行过程是非常慢的,因为hive采用的是把HQL转化成hadoop的MapReduce任务,然后编译,打包成jar包,分发到各个server上去执行,这个过程会很慢很慢!而impala也可以执行SQL,但是比Hive快很多,而Impala根本不用Hadoop的Mapreduce机制,直接调用HDFS的API获取文件,在内存中快速计算! 但是Impala也并不是完全比Hive好。
应用场景 既然hbase支持sql语句对数据进行操作,那么我们能不能通过代码连接Hbase,通过phoenix,在代码中书写sql语句,对phoenix进行操作呢? 操作方案 1.
应用场景 当Hadoop完全分布式集群搭建安装完毕后,安装了Hbase分布式非关系型数据库,但是hbase使用起来不像通常的关系型数据库,不可以用我们熟悉的sql语句来操作数据,因此我们安装了phoenix,使SQL...
应用场景 按照 完全分布式Hadoop集群安装Phoenix博文,安装了phoenix后,可以通过普通的SQL方式,操作HBASE,使hbase分布式非关系型数据库,更加易于用户的使用。
应用场景 当我们按照之前的博文,安装完Hadoop分布式集群之后,再安装了Hbase,当准备通过hbase shell命令开始使用Hbase的时候,发现hbase非常的难用,都是一些scan,status,describe命令等,无法像mysql,oracle,hive等通过一些简单的SQL语句来操作数据,但是通过Phoenix,它可以让Hbase可以通过SQL语句来进行操作。
应用场景 在使用linux系统时,如果编译一个文件,make XXX可能需要mvn环境,而且用maven管理项目,也是常用的一种方法,所以也需要在Linux端进行安装部署maven环境。
应用场景 按照Kafka集群的测试和简单试用博文进行了对Kafka的使用,与topic创建,并且模拟了消息的生产者,消息的消费者进行模拟环境,验证Kafka可以执行,但是想到,建立了topic,如何进行删掉呢?这是一个问题。
应用场景 按照Hadoop完全分布式安装Kafka博文搭建完Kafka2.11集群后,需要简单试用,来体会Kafka的工作原理,以及如何进行使用,感受分布式消息队列系统。
应用场景 按照搭建hadoop完全分布式集群博文搭建完hadoop集群后,发现hadoop完全分布式集群自带了HDFS,MapReduce,Yarn等基本的服务,一些其他的服务组件需要自己重新安装,比如Hive,Hbase,sqoop,zookeeper,spark等,这些组件集群模式都在前面相关博文中有介绍,今天我们需要安装另外一个组件,它就是分布式消息系统Kafka。
应用场景 Flume作为Hadoop中的日志采集工具,非常的好用,但是在安装Flume的时候,查阅很多资料,发现形形色色,有的说安装Flume很简单,有的说安装Flume很复杂,需要依赖zookeeper,所以一方面说直接安装Flume,解压即可用,还有一方面说需要先装了Zookeeper才可以安装Flume。
应用场景 按照Hadoop完全分布式安装Flume博文,测试使用了Flume监听文件夹,当文件夹中添加了文件,Flume设置会立马进行收集文件夹中的添加的文件,那么这是一种应用场景,但是如果我们想收集文件中的内容,该...
应用场景 按照搭建hadoop完全分布式集群博文搭建完hadoop集群后,发现hadoop完全分布式集群自带了HDFS,MapReduce,Yarn等基本的服务,一些其他的服务组件需要自己重新安装,比如Hive,Hbase,sqoop,zookeeper,spark等,这些组件集群模式都在前面相关博文中有介绍,今天我们需要安装另外一个组件,它就是日志采集工具Flume。
应用场景 spark是用scala写的一种极其强悍的计算工具,spark内存计算,提供了图计算,流式计算,机器学习,即时查询等十分方便的工具,当然我们也可以通过python代码,来调用实现spark计算,用spark来辅助我们计算,使代码效率更快,用户体验更强。
应用场景 python封装了很多算法,工具,使用起来非常的方便,它涉及各行各业,比如医疗,生物,数学,计算机,人工智能等,我们不需要使用它的全部,只需要使用我们所需要的一些,可以使代码更加简洁,开发更加方便。
应用场景 在本地windows端,想开发python代码,或者运行python代码,需要在windows端安装python开发环境,来测试python代码,学习python。
应用场景 在linux端如果需要运行python代码,需要安装python开发环境,一般centos自带python开发环境,centos6自带了python2.
应用场景 spark是用scala写的一种极其强悍的计算工具,spark内存计算,提供了图计算,流式计算,机器学习,即时查询等十分方便的工具,所以利用scala来进行spark编程是十分必要的,下面简单书写一个spark连接mysql读取信息的例子。