1)对于单独的vmax 10K 20K来说,如果是新server,需要创建了SG后往里加volume,加之前,这些volume应该是和某个pool bind着,而这些pool是有raid的,thin pool或者thick pool。
pool和raid group的区别:
1) raid group 最多只能有16个硬盘,pool可以无限
2)pool可以有多种硬盘,sas ssd 等,raid group只能有一种盘,raid grouo只是性能表现上好。
2) vmax上建立一个sg,这个sg要加入一个父sg,这个sg是vplex的sg,然后这个子sg中的lun会在vplex中cliam,意为take,之后vplex才可以使用这些lun了,然后lun合成extend(vplex端合成),然后extend组成device, device组成virtual volumes,然后加入到vplex的storage view中。
3)但是在vplex level, 底层的volume没有raid, 也没有bind pool,volume->extend->device, device是可以选择raid的,还有一种选项是1:1 mapping。
4)vplex和多个vmax相连,因为server的sg会加入到vplex的父sg中,所以vplex能看到所有vmax的存储分配情况,vmax创建完后sg,加入lun后,再加入vplex sg,之后需要在vplex中claim这些lun,并为这些lun创建extent, 然后创建device,然后根据这些device创建vitrul volume, 把这个virtual volume加入到vplex的storage view,类似于vmax的masking view,里面包含了initiator port, vplex的fe port, vitrul volume三个元素,storage view定义了which server can access which vitrul volume on which vplex port.
4) 还不是很理解的一点: extend和device:
to support two different mobility options:
extent level data mobility is support only with a cluster;
device level data mobility within two different clusters at two different sites.
在vmax的lun上创建extent,然后device,然后virtual volume, extend和device的作用一是建立lun和virtual volume的关系,另一个是mobility option,下面有。
5)关于vplex的SG和storage的SG关系:
先看下面两个图:
第一张图,查看一个server的sg的时候,能看到还有另一个SG: gevpc101_data_SG2,这个是vmax里面给vplex做的SG,有好几个,vmax里分给server的sg是加入到这个vplex sg的,vplex_sg是server_sg的 parent SG,这个sg里有很多server,看第二张图.
然后在vplex的storage view中也能发现和gcs1a101_sg,其实这个就是在vmax中看到的,只不过vmax给了vplex,vplex给了server.只是在vplex中represent.
本文转自UVN2015 51CTO博客,原文链接:http://blog.51cto.com/10851095/1843808,如需转载请自行联系原作者