NAS是走lan交换机,不需要做new zoing,新san才需要。
NFS:
首先在storage pool里有两种类型,一种叫pool一种叫raid group,区别是pool对于磁盘个数和磁盘没有限制,raid group都有限制,而且对于不同类型的磁盘,连raid的磁盘要求都是固定的,但是raid group 性能表现更好。
-
pool/raid group -> lun ->bound to SPA/SPB/auto, 如果选择auto,lun会自动逐个按abab去bound.
-
storage group -> lun加入到SG (这个是nas自己的系统SG)
接下来要创建NAS与server的接口,这个接口其实是是由Data mover下的一个虚拟device来实现的,
关于创建这个interface:
1) 创建一个device,这个device是DM下面的一个虚拟device, 创建的时候可以指定端口,并选择方式是负载均衡还是主备切换;
2)创建interface是基于device的,所以说某一个device已经指定了从哪些口出去;
3)创建链路时需要把raid group(每种类型的盘有指定raid方式)的盘或者pool的盘挂给DM(block主机),与san一样都是加入一个SG。
2,创建file system ,例如fs2690,给空间,files system的空间是server所需空间/0.9,因为还要扣除check point的大小。
选择相应的data mover,不同的dm创建不同的file system。
datamover is like a NAS server on which Main Storage is connected from Backend
,and on Datamover we will create file systems and create export paths and provide these export paths to the users
3,创建tree qutas,例如fs2690/0269q1, 给soft/hard limit
4, 创建 nfs/cifs export, 关联server ip和qutas path. 多个IP用冒号隔离开
5, 创建check point。
checkpoint相当于svol, server 数据的snapshot保存在checkpoint里。大小是file system的20%。
创建两个,这两个对应的是不同的备份job,一个奇数天,一个偶数天。
6, 修改checkpoint名字
7, 创建snapshot backup job, tap backup job, 修改,datalist
vnx5700既可以当nas用也可以当san storage用,里面最初的raw disk是不能用来当nas用的,需要创建成storage pool for file才行,这个pool里有两个pool,一个是for data用来创建file system,一个是for checkpoint用来创建checkpoint,剩余的空间里有个storage pool,这个可以用来给san用,也可以用来给pool for file加容量。
8. server端mount的话,就mount jedm1007:fs0271/027102q /nas
jecs1007是整台nas的管理用主机名,对应的server端主机名是jedm1007,或者用相应的interface名来挂载,server端其实是用ip挂载的,只是把ip和jedm1007写在了hosts.
另外interface里有nfsv3和nfsv4,对应不同的需切,看server端nfs的版本。
cifs的话是: \\cifs server name\5941001q 用密码登录。
9. 一条path在server上mount两个点也是有可能的,比如fs12/12301q mount在/home下,在server端,fs123/12301q/345 mount /root下也是可以的。
CIFS:
CIFS其实和NFS只是在export share那里不同,CIFS创建share的步骤
例如server的IP是10.1.1.5
1) 创建CIFS sever,输入server的work group, 密码,选择interface(NAS IP),10.1.1.1网段,其实就是NAS的出口,没有的话要add network,在NETWORK那里加。
2)创建shares, 起一个share的名字,输入filesystem和path的名字,选择上一步创建的CIFS server.
其实可以发现CIFS的share添加并没有输入server的IP,只是选择了NAS的interface, 如果要加入多台server的共享,如果是一个网段的,其实都不需要在NAS再做任何配置,server端输入quoto tree的地址,输入第一步的密码即可,如果跨网段了,可以修改第一步的CIFS server配置,多选择一个interface即可。
多个mount point:
有时客户会有多个mount points的需求,比如在server /mnt上挂一个5G的空间,在/mnt/opt上挂一个10G的空间,这时需要创建一个15G的file system,一条5G的path,1条10G的path, 一条path一个share,两个checpoint,checkpoint是备份的file system,不是path,所以不是四条。
*****************************************************************************************
关于pool的问题:
GDC的vnx有nas data pool for fs, ckp_poo for checkpoint.
*******************************************************************************************
关于创建job问题
GDC:
需要创建snap job, backup job, datalist, 在CHAOW上注册,在control M调用,snap job上只是一个运行脚本,运行时间在CHAOW上定义,backup job的时间需要在备份服务器上check,
./cs 10 |grep NDMP, 每一个时间下不能超过6个job.
snap job在backup server2上,
tap backup job 在backup server1上
datalist在backuo server1上
JDC:
snap job的schedule在VG8上定义了,所以不需要创建snap job了,但是需要创建backup time, datalist,和ECL, job code找dummy的用就行,如果chaow上有就不需要创建新的了。
***************************************************************************************
以上是建立没有域的nas,如果要建立有域的nas,还要添加dns server的帐号来做为解析域名用。
本文转自UVN2015 51CTO博客,原文链接:http://blog.51cto.com/10851095/1834051,如需转载请自行联系原作者