前言
最近公司的平台进行了升级,每天都产生很多的日志文件与数据文件,之前的服务器磁盘大小不符合最新的平台要求,磁盘空间一直处于90%左右,我也一直收到磁盘空间的报警邮件(由于我对磁盘做了脚本的监控,如果磁盘空间使用达到90%就发送报警),所以我提出了一个建议,使用“基于IP SAN的ISCSI的存储系统”,这样可以在不改变现有的架构下、不花费钱(如果你不买HBA卡的话)、最简单的搭建存储系统。
下面是iscsi的介绍(从网上找的)
一、Linux网络环境iSCSI技术的实现主要有三种方式:
1.
纯软件方式
服务器采用普通以太网卡来进行网络连接,通过运行上层软件来实现iSCSI和TCP/IP协议栈功能层。这种方式由于采用标准网卡,无需额外配置适配器,因此硬件成本最低。但是在这种方式中,服务器在完成自身工作的同时,还要兼顾网络连接,造成主机运行时间加长,系统性能下降。这种方式比较适合于预算较少,并且服务器负担不是很大的用户。目前不论是MicrosoftWindows、IBMAIX、HP-UX、Linux、NovellNetware等各家操作系统,皆已陆续提供这方面的服务,在价格上,比起前两种方案,远为低廉,甚至完全免费。但由于Initiator驱动程序工作时会耗费大量的CPU使用率及系统资源,所以性能最差。在此建议,最好是采用1GHz以上CPU的主机,如此才能获得较佳的效能表现,如果公司主机CPU在1GHz以下,那么最好不要采用。至于在各类协议的支持上,Initiator驱动程序可以同时支持iSCSI、NFS及CIFS协议。当然现在大多数服务器CPU都可以满足这个要求。这里免费的iSCSIInitiator驱动程序,才可以将一般Gigabit网卡仿真成iSCSIInitiator。然后再透过iSCSI桥接器将一般SCSI接口的存储配备仿真成iSCSITarget,如此就形成一个iSCSI-SAN。
2.iSCSITOE
网卡实现方式
在这种方式中,服务器采用特定的TOE网卡来连接网络,TCP/IP协议栈功能由智能网卡完成,而iSCSI技术层的功能仍旧由主机来完成。这种方式较前一种方式,部分提高了服务器的性能。在三种iSCSIInitiator中,价格比iSCSIHBA便宜,但比软件Initiator驱动程序贵,性能也居于两者之间。目前市面上Intel的TOE(TCPOffloadEngine,TCP卸载引擎)HBA价格在150美金左右。
3.iSCSIHBA
卡实现方式
使用iSCSI存储适配器来完成服务器中的iSCSI层和TCP/IP协议栈功能。这种方式使得服务器CPU无需考虑iSCSI技术以及网络配置,对服务器而言,iSCSI存储器适配器是一个HBA(存储主机主线适配器)设备,与服务器采用何种操作系统无关。该方式性能最好,但是价格也最为昂贵。在三种iSCSIInitiator中,价格最贵,但性能最佳。目前价格已由一开始的1000美金左右,下降跌至500美元左右。对于有高效能应用需求的企业,最好采用iSCSIHBA卡,如此才能获得最好的性能。
二、应该使用硬件
initiator
还是软件
initiator
?
iSCSIinitiator是使用硬件还是软件要取决于多种因素,包括预算、性能要求以及服务器工作负荷。软件iSCSIinitiator能够实现成本最低的iSCSI解决方案。纯软件iSCSIinitiator使用标准以太网卡,并依靠主机CPU来处理iSCSI命令和TCP/IP栈。对于具有2GCPU的最新一代服务器来说,大部分客户工作负荷在iSCSI协议处理方面不会引发明显的性能开销。如果您的服务器拥有千兆以太网卡则对软件initiator的评测过程几乎不会有任何问题,原因是在绝大多数流行的操作系统中,initiator都是免费提供的。如果CPU较陈旧,服务器的负荷较重,则可能更适合采用硬件iSCSIinitiator。硬件iSCSIinitiator会将iSCSI和TCP/IP处理工作转移到iSCSIHBA中。其结果就是能够大幅度降低CPU的性能开销,这点堪与光纤通道HBA相比。硬件initiator还能提供软件解决方案所不具备的功能,例如支持高可用性环境的硬件多通道功能,支持密集服务器环境中的远程引导功能。
三、硬件和软件
initiator
如何影响应用程序的性能?
如果应用程序位于负担较轻的服务器上,在大多数情况下,采用软件initiator的iSCSI的性能开销也不会明显影响应用程序的性能。如果服务器的负荷较重,则必须采用硬件iSCSIinitiator。不过,在大多数环境中,传输带宽以及主机CPU的性能开销完全不是问题—应用程序性能问题在很大程度上要归因于存储的轴数有限(承担工作负荷的磁盘太少)。这不是协议或传输问题。这是直连式存储系统的一个普遍问题,但是采用基于iSCSI的SAN解决方案可以非常方便地解决这一问题。
四、考虑到公司使用Linux服务器使用千兆网络,而且网络负载不大,所以我使用第一种方式搭建存储系统。
环境
以上服务器的系统均是rhel5.4版本
1、服务端test2(比如安装在各省的备用服务器上)需要安装iscsitarget软件
下载iscsitarget
- [root@test2 src]# wget http://sourceforge.net/projects/iscsitarget/files/iscsitarget/1.4.20.2/iscsitarget-1.4.20.2.tar.gz
解压
- [root@test2 src]# tar zxvf iscsitarget-1.4.20.2.tar.gz
- [root@test2 src]# cd iscsitarget-1.4.20.2
编译与安装
- [root@test2 iscsitarget-1.4.20.2]# make
- [root@test2 iscsitarget-1.4.20.2]# make install
启动服务
- [root@test2 iet]# service iscsi-target start
加入开机启动
- [root@test2 iet]# chkconfig --level 35 iscsi-target on
修改/etc/iet/ietd.conf的第35与52行
- 35#Target iqn.2001-04.com.example:storage.disk2.sys1.xyz
- 52#Lun 0 Path=/dev/sdc,Type=fileio,ScsiId=xyz,ScsiSN=xyz
修改为
- 35 Target iqn.2012-02.com.test:storage.disk2.sys1.xyz
- 52 Lun 0 Path=/dev/sda10,Type=fileio,ScsiId=xyz,ScsiSN=xyz
重启服务
- [root@test2 iet]# service iscsi-target start
下图是当前的磁盘空间情况
2、客户端(比如安装在各省的引擎服务器上),安装iscsi软件
使用yum安装iscsi
- [root@test5 ~]# yum install iscsi*
启动服务
- [root@test5 ~]# service iscsi start
可以使用如下命令查看下iscsi-target主机划分了那些的lun
- [root@test5 send_targets]# iscsiadm -m discovery -t sendtargets -p 10.1.88.178:3260
- 10.1.88.178:3260,1 iqn.2012-02.com.test:storage.disk2.sys1.xyz
使用iscsiadm与iscsi target建立连接
- [root@test5 send_targets]# iscsiadm -m node -T iqn.2012-02.com.test:storage.disk2.sys1.xyz -p 10.1.88.178 -l
- Logging in to [iface: default, target: iqn.2012-02.com.test:storage.disk2.sys1.xyz, portal: 10.1.88.178,3260]
- Login to [iface: default, target: iqn.2012-02.com.test:storage.disk2.sys1.xyz, portal: 10.1.88.178,3260] successful.
从fisk可以看出,iscsi的共享磁盘为sdb,大小为10.4GB,接下来就可以通过fdisk命令对整个磁盘进行重新分区、格式化、创建文件系统了等操作了。
可以使用iscsiadm -m session --print=2来查看iscsi的状态
- [root@test5 send_targets]# iscsiadm -m session --print=2
- Target: iqn.2012-02.com.test:storage.disk2.sys1.xyz
- Current Portal: 10.1.88.178:3260,1
- Persistent Portal: 10.1.88.178:3260,1
- **********
- Interface:
- **********
- Iface Name: default
- Iface Transport: tcp
- Iface Initiatorname: iqn.1994-05.com.redhat:babeb593b5af
- Iface IPaddress: 10.1.88.177
- Iface HWaddress: <empty>
- Iface Netdev: <empty>
- SID: 1
- iSCSI Connection State: LOGGED IN
- iSCSI Session State: LOGGED_IN
- Internal iscsid Session State: NO CHANGE
- ************************
- Negotiated iSCSI params:
- ************************
- HeaderDigest: None
- DataDigest: None
- MaxRecvDataSegmentLength: 262144
- MaxXmitDataSegmentLength: 8192
- FirstBurstLength: 65536
- MaxBurstLength: 262144
- ImmediateData: Yes
- InitialR2T: Yes
- MaxOutstandingR2T: 1
BTW:在测试环境里部署之后没有发现问题,目前已经在生产环境了进行了部署,如果各位对iscsi有建议的话,请不吝赐教,谢谢!
本文转自 dl528888 51CTO博客,原文链接:http://blog.51cto.com/dl528888/791117,如需转载请自行联系原作者