nas和san的区别(nas存储和san存储使用区别)
区别:1。SAN可以看作是网络上的一个磁盘;而NAS可以看作是网络上的一个文件系统。2.NAS以文件+局域网的形式连接存储介质;而存储区域网络以块形式+光纤连接存储介质。
存储区域网络
网络附加存储
NAS不一定是磁盘阵列,普通主机可以做NAS。只要它有自己的磁盘和文件系统并提供外部接口(如NFS、CIFS等。)来访问它的文件系统,它是一个NAS。常用的windows文件共享服务器使用CIFS作为NAS设备调用接口协议。一般来说,网络连接存储实际上是在以太网上使用NFS、CIFS等网络文件系统的共享服务器。至于以后FC网会不会有文件提供商,也就是FC网的NAS,我们就等以后了。
评论:
NFS(网络文件系统)适用于Linux & UNIX系统
CIFS(通用互联网文件系统)适用于windows系统
存储区域网络\网络连接存储的区别:
可以对比如下:SAN是网络上的一个磁盘;网络连接存储是网络上的一个文件系统。其实按照SAN的定义可以看出,SAN其实指的是一个网络,但是这个网络包含各种元素,比如主机、适配器、网络交换机、磁盘阵列前端、磁盘阵列后端、磁盘。长期以来,人们习惯性地用SAN来特指FC,尤其是指远程磁盘。
那么,一旦设计出一个基于FC网络的NAS,这个时候应该叫什么SAN呢?
所以说两者的区别,我们用一个类比,就是FC网上的磁盘叫SAN,以太网上的文件系统叫NAS,我们可以简单理解。
NAS以文件+局域网的形式连接存储介质;
而存储区域网络以块形式+光纤连接存储介质。
普通桌面也可以充当NAS,NAS必须具备两个物理条件:
首先,无论如何,NAS必须能够访问卷或物理磁盘;
第二,NAS必须要有接入以太网的能力,也就是要有以太网卡。
存储区域网络\网络连接存储性能的比较:
1.存储区域网络快还是网络连接存储快
首先,查看存储区域网络和网络连接存储的路径图,如下所示:
显然,当NAS架构的路径在虚拟目录层和文件系统层之间通信时,以太网和TCP/IP协议取代了内存,不仅增加了大量的CPU指令周期(TCP/IP逻辑和以太网卡驱动),还使用了庸俗的传输介质(内存速度比以太网快得多)。
在SAN模式下,路径上比NAS模式多了一个FC访问进程,但是FC的逻辑大部分是由适配卡上的硬件完成的,并没有增加太多的CPU开销,而且FC访问的速度比以太网要快。所以很容易得出结论,如果后端磁盘没有瓶颈,除非NAS以比内存更快的网络模式与主机通信,否则其速度永远不会超过SAN架构。
但是如果后端磁盘有瓶颈,NAS用网络代替内存导致的性能下降可以忽略不计。例如,在存在大量按需I/O且缓存命中率极低的环境下,后端磁盘系统发现的瓶颈达到最大,前端I/O指令会处于等待状态,所以即使第一段路径的速度更快,也无济于事。
此时,NAS系统不仅比SAN慢,而且由于其优化的并发I/O设计和基于文件访问而不是集群块访问的特点,性能也比SAN高。
既然NAS一般不会比SAN快,为什么要诞生NAS?既然NAS没有SAN快,为什么还存在?具体原因如下:
NAS的成本比SAN低很多。前端只使用以太网接口,FC适配卡和交换机相比以太网卡和交换机成本非常高。
NAS可以解决主机服务器上的CPU和内存资源。网络连接存储适用于cpu密集型应用环境。
因为网络连接存储利用以太网,所以它具有高度的可扩展性和易于部署。
NAS设备一般提供多种协议访问数据,而SAN只能使用SCSI协议访问数据。
NAS可以实现一个磁盘阵列上多个客户端的共享访问,包括同时访问某个目录或文件。在存储区域网络模式下,除非所有客户端都安装了特殊的群集管理软件,否则无法共享lun,强制共享会损坏数据。
经过特别优化的NAS系统可以同时处理大量客户端请求,提供了比SAN更方便的访问方式。
多个主机可以同时挂载NFS上的目录,相当于减少了整个系统中文件系统的处理流程,将原来的多个并行处理转化为NFS上的单个实例,简化了系统冗余。
2.SAN好还是NAS好
IO密集型和CPU密集型描述如下。
CPU密集型:程序内部逻辑复杂,磁盘访问不高。
IO密集型:程序内部逻辑不复杂,消耗CPU很少,但可以随时访问硬盘上的数据。
IO和CPU密集:不适合单机,必须形成集群。
显然,对于大型顺序IO密集型环境,NAS要比SAN慢得多,因为在大量IO积累之后,整体差异就显现出来了。但是如果要用10G以太网,肯定要选择NAS,因为底层链路的速度是目前NAS的根本瓶颈。
另外,如果是高并发随机I/O环境或者共享访问文件的环境,NAS会表现出较强的相对性能。如果SAN主机上文件系统碎片较多,读写文件时会产生随机的小IO,而NAS自己的文件系统会有很多优化设计,碎片相对较少。对CPU密集型的使用NAS。