NFS还是iSCSI?关于VMware vSphere的存储连接的选择题 推荐
2010-01-19 11:23
351 查看
VMware连接共享存储的方式有三种,SAN,IP SAN(也就是iSCSI) 和NAS(NFS)。这篇文章不是介绍这3者的区别的,关于SAN和NAS的区别,请去google一下。
其次,这篇文章也不考察FC SAN,如果你的环境中已经有了支持MPIO的SAN并且有足够的存储空间,那么尽量利用起来吧。因为很多文章都指出:NAS/NFS是低I/O需求工作负载的理想介质,光纤则是针对高需求工作负载的理想选择。(这里有一篇可供参考的译文:http://storage.chinabyte.com/387/8638887.shtml)
那么,对于VMware来说,NFS好还是iSCSI好呢?看了不少文档,包括NetApp和VMware都没有明确的说孰优孰劣。比较笼统的一个说法是,看你自己熟悉哪一种环境。
【成本】
首先,不能不考虑的最重要的因素是成本。如果从头构建一个存储网络,那么成本应该是FC SAN > HW iSCSI > SW iSCSI = NFS 。在这里,我们没有考虑10G以太网和FCoE。还是因为10G的设备和配件都太贵。
现实案例:在我们单位的环境中,因为考虑成本的因素,没有SAN(SAN通常都比较贵,你必须购买专用的HBA卡,至少2个SAN Switch,并且还要为你的存储配备FC SAN接口)。我们内部的存储网络环境主要就是2种:iSCSI和NFS。MS Cluster Service(比如email和MS SQL)用的是iSCSI,Oracle DB用的是NFS。于是,我们的VWware就剩下了2个选择,iSCSI和NFS。(硬件的iSCSI因为CPU资源并不是瓶颈,吞吐量上也没有优势,出于成本考虑也放弃掉了)
成本上:SW iSCSI 和 NFS打平手。
【性能】
NFS是基于IP的,但是不是基于IP的存储协议,在网络开销方面似乎要略大一些。但是性能测试却表明,NFS和iSCSI几乎不相上下(读性能相当,写性能略差)。(参考文档http://www.vmware.com/files/pdf/perf_vsphere_storage_protocols.pdf)
读性能:(需要注意的是,这里的FC一枝独秀是因为FC是4Gb/s带宽,而其他3种则是1Gb/s的千兆以太网)
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/3860dab9d7889d971cf43749f0265117.gif)
写性能
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/9545bca5f16dc1633b463df0247a7240.gif)
CPU占用率。从这图可以看出,ESX4.0的SW iSCSI大有改进。ESX3.5的时候,SW iSCSI的效率甚至低于NFS。
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/30d45750c07971ac49992f9b3e55ac60.gif)
性能上,SW iSCSI略略胜出,但是胜的不多。
【配置的便利性】
根据我在ESX3.01和ESX3.5上这3年来的经验,配置iSCSI要比配置NFS复杂很多。这方面NFS胜出
【功能】
功能看下面四个表(详见NetApp的最佳实践文档http://blogs.netapp.com/virtualization/2009/07/new-tr3749-netapp-vmware-vsphere-best-practices.html)
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/1c84fbbbb32d5cf9ac130a719b65d82c.gif)
表1说明采用LUN的FC或iSCSI没有NFS灵活,所以虽然单个的datastore可以高达64TB,但是每个LUN建议的VMDK只有16个。因此,必须配置更多的datastore,也增加了配置的复杂程度。
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/6914c42667129a4dc51c619234b05e32.gif)
表2说明,只有FC支持MSCS(微软集群),如果你必须用MSCS,那只有一个选择了。其次,FC和iSCSI支持VMware NMP (Native Multi-Path),这个优点有待我进一步测试。
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/8c0713e44e44a5de5490199d332523a5.gif)
表3是在NetApp这一端比较的。NFS因为其天生的特性,可以灵活地扩大或者缩小datastore,明显优于LUN方式的iSCSI。(Snapdrive是用来扩大LUN用的,NFS无需Snapdrive)
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/34d534899b81c9a40631d95f71282045.gif)
表4比较了备份方式。NFS的备份可以针对VM级别,相对更加灵活。
【总结】
总的来说,NFS的性能略差,但是管理上灵活度更高。在我这的环境中,将偏向于采用NFS方式。
其次,这篇文章也不考察FC SAN,如果你的环境中已经有了支持MPIO的SAN并且有足够的存储空间,那么尽量利用起来吧。因为很多文章都指出:NAS/NFS是低I/O需求工作负载的理想介质,光纤则是针对高需求工作负载的理想选择。(这里有一篇可供参考的译文:http://storage.chinabyte.com/387/8638887.shtml)
那么,对于VMware来说,NFS好还是iSCSI好呢?看了不少文档,包括NetApp和VMware都没有明确的说孰优孰劣。比较笼统的一个说法是,看你自己熟悉哪一种环境。
【成本】
首先,不能不考虑的最重要的因素是成本。如果从头构建一个存储网络,那么成本应该是FC SAN > HW iSCSI > SW iSCSI = NFS 。在这里,我们没有考虑10G以太网和FCoE。还是因为10G的设备和配件都太贵。
现实案例:在我们单位的环境中,因为考虑成本的因素,没有SAN(SAN通常都比较贵,你必须购买专用的HBA卡,至少2个SAN Switch,并且还要为你的存储配备FC SAN接口)。我们内部的存储网络环境主要就是2种:iSCSI和NFS。MS Cluster Service(比如email和MS SQL)用的是iSCSI,Oracle DB用的是NFS。于是,我们的VWware就剩下了2个选择,iSCSI和NFS。(硬件的iSCSI因为CPU资源并不是瓶颈,吞吐量上也没有优势,出于成本考虑也放弃掉了)
成本上:SW iSCSI 和 NFS打平手。
【性能】
NFS是基于IP的,但是不是基于IP的存储协议,在网络开销方面似乎要略大一些。但是性能测试却表明,NFS和iSCSI几乎不相上下(读性能相当,写性能略差)。(参考文档http://www.vmware.com/files/pdf/perf_vsphere_storage_protocols.pdf)
读性能:(需要注意的是,这里的FC一枝独秀是因为FC是4Gb/s带宽,而其他3种则是1Gb/s的千兆以太网)
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/3860dab9d7889d971cf43749f0265117.gif)
写性能
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/9545bca5f16dc1633b463df0247a7240.gif)
CPU占用率。从这图可以看出,ESX4.0的SW iSCSI大有改进。ESX3.5的时候,SW iSCSI的效率甚至低于NFS。
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/30d45750c07971ac49992f9b3e55ac60.gif)
性能上,SW iSCSI略略胜出,但是胜的不多。
【配置的便利性】
根据我在ESX3.01和ESX3.5上这3年来的经验,配置iSCSI要比配置NFS复杂很多。这方面NFS胜出
【功能】
功能看下面四个表(详见NetApp的最佳实践文档http://blogs.netapp.com/virtualization/2009/07/new-tr3749-netapp-vmware-vsphere-best-practices.html)
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/1c84fbbbb32d5cf9ac130a719b65d82c.gif)
表1说明采用LUN的FC或iSCSI没有NFS灵活,所以虽然单个的datastore可以高达64TB,但是每个LUN建议的VMDK只有16个。因此,必须配置更多的datastore,也增加了配置的复杂程度。
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/6914c42667129a4dc51c619234b05e32.gif)
表2说明,只有FC支持MSCS(微软集群),如果你必须用MSCS,那只有一个选择了。其次,FC和iSCSI支持VMware NMP (Native Multi-Path),这个优点有待我进一步测试。
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/8c0713e44e44a5de5490199d332523a5.gif)
表3是在NetApp这一端比较的。NFS因为其天生的特性,可以灵活地扩大或者缩小datastore,明显优于LUN方式的iSCSI。(Snapdrive是用来扩大LUN用的,NFS无需Snapdrive)
.gif]
![](https://oscdn.geek-share.com/Uploads/Images/Content/201910/20/34d534899b81c9a40631d95f71282045.gif)
表4比较了备份方式。NFS的备份可以针对VM级别,相对更加灵活。
【总结】
总的来说,NFS的性能略差,但是管理上灵活度更高。在我这的环境中,将偏向于采用NFS方式。
相关文章推荐
- NFS还是iSCSI?关于VMware vSphere的存储连接的选择题
- 虚拟共享存储:选iSCSI还是NFS?
- VMware vSphere 4.1虚拟化学习手册8:配置iSCSI及NFS存储
- FCoE 还是iSCSI?存储用户巧选择
- 关于判断cpu大端存储还是小端存储的讨论与分析
- EX1500 iSCSI存储连接Win2003的问题
- iscsi客户端不会自动连接记忆的存储设备
- ISCSI 存储部署——配置 (Target创建,Initiator连接)
- iSCSI存储的3种连接方式
- crosync + pacemaker + (NFS,DRBD,iSCSI)实现MySQL的高可用 推荐
- nfs网络文件系统 iscsi网络存储部署
- RHCS,GFS2,ISCSI,CLVM实现共享可扩展集群存储 推荐
- 关于iscsi的多路冗余及共享存储
- 关于centos下iscsi的multipath存储配置后不能安全关机的问题
- 推荐SharePoint一文,关于文件外部存储的
- hyper-v故障转移群集之3、连接iscsi存储
- 红帽企业集群和存储管理之DRBD+Heartbeat+NFS实现详解 推荐
- 关于对MYSQL存储过程传递参数是纯数字还是字符串的判断
- ESXi4.0连接华三(H3C)的iscsi存储作为数据存储
- 基于Ubuntu 14.04的iSCSI存储配置--Target创建,Initiator连接