`
isiqi
  • 浏览: 16483061 次
  • 性别: Icon_minigender_1
  • 来自: 济南
社区版块
存档分类
最新评论
阅读更多
请教 PVFS2 性能提升的问题,请高手帮忙!!!!!!

请教 PVFS2 性能提升的问题,请高手帮忙!!!!!!用PVFS2 搭建了一个 1 IO client,3 IO server的架构, IO server使用本地的 IDE硬盘。

使用 IOzone测试,在测试过程中,发现 读写的块越大,性能越好, 如下,第一列是文件大小,第一行为块大小,单位为kB:

64 128 256 512 1024 2048 4096 8192

32768 22417 31767 47938 65769 75807 83918 88573 88973

65536 20900 32689 42910 66529 77538 84766 87415 88472

131072 19465 34990 45330 65079 76348 82455 87738 87950

262144 20148 31539 45970 39854 77824 83332 88841 87776

524288 21090 33517 48185 64404 77262 84647 88657 87929

1048576 20079 24960 38063 45894 75932 61022 53082 50351

2097152 18595 30156 47571 49094 57575 83622 88007 88119



但是在实际的应用中,比较说用户去读取一个文件,是不是都是有一个默认的块大小?这个块的大小实际使用中是如何修改?或者说我如何调优性能!

非常谢谢!有没有高手帮忙

Hello,



目前分布式文件系统比如 PVFS, lustre, 对于大量小文件的操作性能都一塌糊涂,原因很清楚, 在分布式文件系统中,通过多个服务器组成的IO cluster 建立一个跨越物理节点的虚拟的文件系统,当用户请求IO的时候,如果请求操作的文件块,被条带化在多个物理节点上, 多个物理IO节点和metadata node协同工作,可以并发的操作你的数据, 比如一个500MB的文件被条带化在10个节点上,如果存储策略是等分的,每个IO node并发的存取1/10的这个文件, node数越多, 存取速度越快.

再来考虑小文件,比如16KB以下的文件, 当IO request过来的时候,metadata server发现这个data实际上并没有跨越在多个IO node上,而是位于一个server上,所以整个处理过程等同于IO client -> metadata server -> IO node, 当如果你有大量的小文件(<16KB)分布在若干个IO node上的时候, 存取的性能除了需要考虑单台IO node的IO延迟之外,还要加上整个分布式文件系统在同一读写的时候的元数据操作开销. 所以当你的数据文件尺寸越小, 整个文件系统的性能就越差.



回头说你的例子, 你每个IO node都是IDE 硬盘,IDE硬盘速度再快,但是并发性很差, 特别是大量数据(小文件)读写的时候,IDE硬盘的性能一败涂地, 更加不要说你的IDE channel和system bus之间的延迟了.

还有就是你选择IDE 硬盘的服务器+PVFS2正好是错误的选择,因为PVFS2和PVFS1还有lustre不一样,他的代码都是重新写的,而且用了分布式的 metadata ,PVFS2里面再也没有独立的一个metadata server存在了,也就是说,所有的IO node之间在每次IO操作,文件定位等等,都要比single metadata 的方案开销更大,有更多的延迟累加, 分布式的metadata设计+本来并发和IO都不太好的IDE硬盘的服务器, 你说性能会好么?PVFS2的重新设计,完全是定位在高端用户的,Argonne 国家实验室和Clemson大学的重新开发PVFS2的初衷就是使得这个分布式文件系统完全摆脱PVFS1的socket network的结构,这样新的高端集群互联设备比如Infiniband, Myrinet,Quadrics就可以派上用处了.



优化的方法不多,下面列几条你可以试试看:



1)如果你现在只是测试的话,你可以这样做, 你把配置文件当中<StorageHints>这个章节的"TroveSyncMeta"和"TroveSyncData" 从yes改为no, 这样性能应该会有看得到的提高,每次IO node之间同步metadata的时候,就直接从cache里面读,而不是去读metafile了,当然如果服务器挂掉,数据也就废了.



2)我建议你把节点的硬件配置提高, IDE硬盘的设备不适合作这种应用,尤其是和PVFS2这种连metadata都分布的系统一起工作. 节点之间的交换速度要尽可能得快,把交换机的自动协商关掉,mii-tool把linux的网卡的自动协商也关掉,速度定死在1000MB上.



3)如果你用的是RHEL4U2的话,它里面带的ext3和PVFS2一起工作会有问题,你得用U3或者mount你的IO node上的 ext3的时候,用noreservation的开关.否则会对PVFS2的性能造成影响.



4) 你如果一定要用PVFS2的话,就要明白PVFS2是读写文件块的时候,是不用cache机制的,只有metafile的属性控制彼此同步的时候会用 cache,所以不管你用bonnie++还是IOzone他们都是用来对本地文件系统作测试的,测试用的都是很小的文件区块,这种测试方法本身就是不正 确的,不管最后测试出来的结果如何,都不能正确的告诉你,你面前的这套PVFS2集群到底性能有多大.

测试并行分布式文件系统的工具有很多, PVFS2建议你用IOR (<a href="http://www.llnl.gov/asci/purple/benchmarks/limited/ior/)" _fcksavedurl=""http://www.llnl.gov/asci/purple/benchmarks/limited/ior/)"" target="_blank">http://www.llnl.gov/asci/purple/benchmarks/limited/ior/)</a>, 你可以去测试一下,不要太在意IOzone的测试结果,那个在并行文件系统上测得不准.



5)如果你没有Infiniband,Myrinet的高速互联和快速的scsi 服务器,并且你以后跑的应用不会用到PVFS2的MPI-IO, 我建议你可以考虑Lustre而不是PVFS2.



6). PVFS2的性能还和IO server上的local filesystem的类型有关系, jfs 性能最好,其次是ext2, 然后是xfs, 然后是ext3(用writeback日志策略),然后是reiserfs,然后是ext3(默认的日志策略是ordered).所以从兼容性和管理 等方面权衡,你可以用 ext3( mount -o data=writeback, writeback日志策略).



7) 检查你的IO server的 buffer 设置 /proc/sys/net/core/rmem_default 和 /proc/sys/net/core/wmem_default



性能诊断和优化是非常复杂的工作,特别是在分布式的文件系统上,你要对各种并行文件系统本身和linux系统还有你的应用环境有非常深刻地认识, 调优的过程通常就像一个跷跷板,做得不好的话,一头高了,一头就低下去了, 你需要在精通上面这些技术的基础上,设计出针对你最终应用的几种方案,以便于从offline的tuning转向online tuning的工作.



good luck,
我的一个朋友,在自己的一个HPC集群上,在每个节点上都划分出了一个分区,然后安装了lustre,每个节点既做为lustre的server和 client,同时也要做计算节点。发现一个有趣的现象,就是lustre装好了以后,在节点上跑计算程序,CPU的负载最高也就是50%,将 lustre卸掉之后就OK了,好像lustre预留了50%的CPU资源一样。按理说lustre是不提倡用户一个节点又做client又做 server的,所以我想也有可能是这方面的问题。

?顶楼并没有把client和server混合亚?



lustre不但不应该把client和server混,而且不应该和hpc cluster混在一起.

我说的人不是楼主,是我的一个朋友,HOHO



没错,lustre是不应该把client和server混装,但是软件本身并没有作这样的限制。我觉得如果要专门搞一个集群来作存储的话,不如买专业的存储设备了。更何况现在的PVFS、Lustre这些在性能、稳定性、冗余方面都实现的不是非常好。



欧洲的CERN据说用的是AFS,将很多国家的HPC集群都互联了起来。最近正在看GFS、AFS、GPFS。

用PVFS2 搭建了一个 1 IO client,3 IO server的架构, IO server使用本地的 IDE硬盘。
使用 IOzone测试,在测试过程中,发现 读写的块越大,性能越好, 如下,第一列是文件大小,第一行为块大小,单位为kB:
64 128 256 512 1024 2048 4096 8192
32768 22417 31767 47938 65769 75807 83918 88573 88973
65536 20900 32689 42910 66529 77538 84766 87415 88472
131072 19465 34990 45330 65079 76348 82455 87738 87950
262144 20148 31539 45970 39854 77824 83332 88841 87776
524288 21090 33517 48185 64404 77262 84647 88657 87929
1048576 20079 24960 38063 45894 75932 61022 53082 50351
2097152 18595 30156 47571 49094 57575 83622 88007 88119

但是在实际的应用中,比较说用户去读取一个文件,是不是都是有一个默认的块大小?这个块的大小实际使用中是如何修改?或者说我如何调优性能!
非常谢谢!有没有高手帮忙
作者: nntp 时间: 2006-6-23 18:43

Hello,

目前分布式文件系统比如 PVFS, lustre, 对于大量小文件的操作性能都一塌糊涂,原因很清楚, 在分布式文件系统中,通过多个服务器组成的IO cluster 建立一个跨越物理节点的虚拟的文件系统,当用户请求IO的时候,如果请求操作的文件块,被条带化在多个物理节点上, 多个物理IO节点和metadata node协同工作,可以并发的操作你的数据, 比如一个500MB的文件被条带化在10个节点上,如果存储策略是等分的,每个IO node并发的存取1/10的这个文件, node数越多, 存取速度越快.
再来考虑小文件,比如16KB以下的文件, 当IO request过来的时候,metadata server发现这个data实际上并没有跨越在多个IO node上,而是位于一个server上,所以整个处理过程等同于IO client -> metadata server -> IO node, 当如果你有大量的小文件(<16KB)分布在若干个IO node上的时候, 存取的性能除了需要考虑单台IO node的IO延迟之外,还要加上整个分布式文件系统在同一读写的时候的元数据操作开销. 所以当你的数据文件尺寸越小, 整个文件系统的性能就越差.

回头说你的例子, 你每个IO node都是IDE 硬盘,IDE硬盘速度再快,但是并发性很差, 特别是大量数据(小文件)读写的时候,IDE硬盘的性能一败涂地, 更加不要说你的IDE channel和system bus之间的延迟了.
还有就是你选择IDE 硬盘的服务器+PVFS2正好是错误的选择,因为PVFS2和PVFS1还有lustre不一样,他的代码都是重新写的,而且用了分布式的 metadata ,PVFS2里面再也没有独立的一个metadata server存在了,也就是说,所有的IO node之间在每次IO操作,文件定位等等,都要比single metadata 的方案开销更大,有更多的延迟累加, 分布式的metadata设计+本来并发和IO都不太好的IDE硬盘的服务器, 你说性能会好么?PVFS2的重新设计,完全是定位在高端用户的,Argonne 国家实验室和Clemson大学的重新开发PVFS2的初衷就是使得这个分布式文件系统完全摆脱PVFS1的socket network的结构,这样新的高端集群互联设备比如Infiniband, Myrinet,Quadrics就可以派上用处了.

优化的方法不多,下面列几条你可以试试看:

1)如果你现在只是测试的话,你可以这样做, 你把配置文件当中<StorageHints>这个章节的"TroveSyncMeta"和"TroveSyncData" 从yes改为no, 这样性能应该会有看得到的提高,每次IO node之间同步metadata的时候,就直接从cache里面读,而不是去读metafile了,当然如果服务器挂掉,数据也就废了.

2)我建议你把节点的硬件配置提高, IDE硬盘的设备不适合作这种应用,尤其是和PVFS2这种连metadata都分布的系统一起工作. 节点之间的交换速度要尽可能得快,把交换机的自动协商关掉,mii-tool把linux的网卡的自动协商也关掉,速度定死在1000MB上.

3)如果你用的是RHEL4U2的话,它里面带的ext3和PVFS2一起工作会有问题,你得用U3或者mount你的IO node上的 ext3的时候,用noreservation的开关.否则会对PVFS2的性能造成影响.

4) 你如果一定要用PVFS2的话,就要明白PVFS2是读写文件块的时候,是不用cache机制的,只有metafile的属性控制彼此同步的时候会用 cache,所以不管你用bonnie++还是IOzone他们都是用来对本地文件系统作测试的,测试用的都是很小的文件区块,这种测试方法本身就是不正 确的,不管最后测试出来的结果如何,都不能正确的告诉你,你面前的这套PVFS2集群到底性能有多大.
测试并行分布式文件系统的工具有很多, PVFS2建议你用IOR (http://www.llnl.gov/asci/purple/benchmarks/limited/ior/), 你可以去测试一下,不要太在意IOzone的测试结果,那个在并行文件系统上测得不准.

5)如果你没有Infiniband,Myrinet的高速互联和快速的scsi 服务器,并且你以后跑的应用不会用到PVFS2的MPI-IO, 我建议你可以考虑Lustre而不是PVFS2.

6). PVFS2的性能还和IO server上的local filesystem的类型有关系, jfs 性能最好,其次是ext2, 然后是xfs, 然后是ext3(用writeback日志策略),然后是reiserfs,然后是ext3(默认的日志策略是ordered).所以从兼容性和管理 等方面权衡,你可以用 ext3( mount -o data=writeback, writeback日志策略).

7) 检查你的IO server的 buffer 设置 /proc/sys/net/core/rmem_default 和 /proc/sys/net/core/wmem_default

性能诊断和优化是非常复杂的工作,特别是在分布式的文件系统上,你要对各种并行文件系统本身和linux系统还有你的应用环境有非常深刻地认识, 调优的过程通常就像一个跷跷板,做得不好的话,一头高了,一头就低下去了, 你需要在精通上面这些技术的基础上,设计出针对你最终应用的几种方案,以便于从offline的tuning转向online tuning的工作.

good luck,
作者: kartwall 时间: 2006-6-23 23:20

我的一个朋友,在自己的一个 HPC集群上,在每个节点上都划分出了一个分区,然后安装了lustre,每个节点既做为lustre的server和client,同时也要做计算节 点。发现一个有趣的现象,就是lustre装好了以后,在节点上跑计算程序,CPU的负载最高也就是50%,将lustre卸掉之后就OK了,好像 lustre预留了50%的CPU资源一样。按理说lustre是不提倡用户一个节点又做client又做server的,所以我想也有可能是这方面的问 题。
作者: nntp 时间: 2006-6-24 10:11

?顶楼并没有把client和server混合亚?

lustre不但不应该把client和server混,而且不应该和hpc cluster混在一起.
作者: kartwall 时间: 2006-6-24 10:43

我说的人不是楼主,是我的一个朋友,HOHO

没错,lustre是不应该把client和server混装,但是软件本身并没有作这样的限制。我觉得如果要专门搞一个集群来作存储的话,不如买专业的存储设备了。更何况现在的PVFS、Lustre这些在性能、稳定性、冗余方面都实现的不是非常好。

欧洲的CERN据说用的是AFS,将很多国家的HPC集群都互联了起来。最近正在看GFS、AFS、GPFS。
作者: nntp 时间: 2006-6-24 12:56



QUOTE:
原帖由 kartwall 于 2006-6-24 10:43 发表
我说的人不是楼主,是我的一个朋友,HOHO

没错,lustre是不应该把client和server混装,但是软件本身并没有作这样的限制。我觉得如果要专门搞一个集群来作存储的话,不如买专业的存储设备了。更何况现在的PVFS、 ...

lustre 本来就是提供一个存储的集群,软件没有限制,但是有设计和性能上的考量。而且专业的存储(如果你说专业存储就是普通的DAS/NAS/SAN的话) 和lustre 不是互为独立而是整合在一起的.HP有一个高端的SFS存储方案,基于lustre production version, 每个OST通过两个独立的阵列卡,连接到8台DAS 阵列. 一套SFS一共4个OST, 2个互为HA的MDS. 这是低端的配置,高端的配置是EVA3000/4000光纤阵列连接OST server. 从1T-1024T,IO带宽从35G/s -115G/s.

欧洲的CERN的确是采用AFS,不过你说的"将很多国家的HPC集群都互联了起来" 其实和parallel filesystem没有关系,应该是CERN主持的Euro-Grid.
CERN当初选择parallel filesystem的时候,是根据自己的应用特点和特定要求,作了针对自己业务的选择的。CERN IT运营部门的Rainer Többicke 当时针对外界对他们选择 AFS的问题在不同的会议上作了解释. 你搜 "Rainer Többicke - AFS at CERN" 应该就可以看到03年的时候 Rainer的一个介绍.当时IBM吃掉了AFS, lustre还不够成熟,CERN选择AFS是有特定的原因的(推动CERN购买AFS的原因还有IBM在CERN超级计算机的大单).

偷偷澄清一下,GFS(sistina/RedHat的么?)和AFS不是一种东西,前者是集群文件系统,后者是分布式文件系统.
我个人比较关注Lustre, lustre现在表现出越来越多的技术优势。我看你几次提到AFS, GPFS,是不是你们单位买了很多IBM的东西?或者和IBM技术部门关系比较密切? :") 开个玩笑.
我记的中国气象局那个21.76TFlops的集群用的也是GPFS.

欢迎你和你的朋友多来这里参加讨论.

[ 本帖最后由 nntp 于 2006-6-24 12:59 编辑 ]
作者: kartwall 时间: 2006-6-24 13:28

非常感谢NNTP给出的专业建议,我对你帖子中展现出来的宽阔的知识面相当的敬佩,我想NNTP在这个领域是不是已经耕耘了很多年了?:)

事实上,我不是高性能计算的用户,而是在一个从事高性能计算相关的技术公司工作,所以,接触到了HPC相关的一些东西。有NNTP的专业建议在,我想我一定会常来这里,向你讨教问题。
作者: jiangyi_hust 时间: 2006-6-24 14:20

NNTP的确十分的专业,我很多朋友都知道你(当然是在网络上)。
回Kartwall,nntp:你们可以拿到 GPFS的安装包么?这个似乎很难得到

多谢回复
正在改用 外置scsi磁盘阵列,ext2文件系统。再使用IOR测试。。。
作者: nntp 时间: 2006-6-24 17:12



QUOTE:
原帖由 kartwall 于 2006-6-24 13:28 发表
非常感谢NNTP给出的专业建议,我对你帖子中展现出来的宽阔的知识面相当的敬佩,我想NNTP在这个领域是不是已经耕耘了很多年了?:)

事实上,我不是高性能计算的用户,而是在一个从事高性能计算相关的技术公司工 ...

讨教真的不敢当,多交流吧.
作者: nntp 时间: 2006-6-24 17:19



QUOTE:
原帖由 jiangyi_hust 于 2006-6-24 14:20 发表
NNTP的确十分的专业,我很多朋友都知道你(当然是在网络上)。
回Kartwall,nntp:你们可以拿到 GPFS的安装包么?这个似乎很难得到

多谢回复
正在改用 外置scsi磁盘阵列,ext2文件系统。再使用IOR测试。。。

Hi, 一点tips:

1)scsi盘阵一定得选好了,小文件的在分布式文件系统上的问题对于你的底层硬件敏感度很高, 我们以前测试过好多种磁盘柜.
最完美的就是低延迟的scsi JBOD设备,配备有非常高速的磁盘控制器和磁盘,比如SAS或SATAII,如果可以调整NCQ就最好了. 因为我以往的经验都来自于有时间限制的项目,
虽然用的设备都很高端,但是无法测试更多的第三方产品,有条件的话你们可以测一些,效果差异还是很大的。阵列的配置也有讲究.
2)ext3 writeback 基本上等于ext2, 在PVFS2环境性能差别很小,但是如果机器挂掉,可以省fsck时间,推荐之。还有反正是测试,你们可以用用jfs,我估计可能会有惊喜。
作者: myprotein 时间: 2006-9-26 12:50

这个帖子我反复看了n遍,每次看完其他文档之后,再回顾一下这个帖子,发现都能有新的收获
谢谢nntp
分享到:
评论

相关推荐

    PVFS2----documents from Princeton university

    只有当使用并行代码(如MPI ROMIO调用)进行读写时才能获得性能提升。 #### 四、PVFS2的访问方式 PVFS2提供了两种主要的访问方式: 1. **内核接口访问**:此方法将标准的Unix命令转换为PVFS命令。虽然这是最简单...

    pvfs分布式文件系统

    4. **内存缓存**:为了提高性能,PVFS在客户端和服务器端都使用了内存缓存,减少了对磁盘的I/O操作。 5. **文件条带化**:PVFS支持文件的条带化存储,即将一个大文件分割成多个小块,分别存储在不同的服务器上,...

    PVFS在Linux集群上的应用研究.pdf

    在数据备份和恢复效率方面,由于PVFS没有内置的容错机制,传统的数据备份方法,如使用tar或其他工具,可能效率低下。为了解决这个问题,可以开发专门针对PVFS的高效备份策略,例如利用并行化技术来加速备份过程,并...

    高性能计算知识汇总

    RAID(冗余独立磁盘阵列)技术是提高数据可靠性和系统性能的重要手段,涉及RAID 0、RAID 1、RAID 5、RAID 6、RAID 10等不同级别。每种RAID级别适用于不同的应用场景,例如RAID 0提供了数据条带化但无冗余,RAID 1为...

    面向搜索引擎的分布式文件系统性能分析.pdf

    面向搜索引擎的分布式文件系统性能分析是一项专门针对搜索引擎应用场景下分布式文件系统性能的研究,其核心在于评估和优化搜索引擎底层文件系统的性能,以提升搜索引擎整体的处理能力。以下是对本文档提供的内容中...

    分布式文件系统性能研究.pdf

    典型的分布式文件系统如Lustre、GFS和HDFS等,它们在设计上通常将元数据和应用程序数据分开存储,以利用各自不同的存储和访问特性来提升系统的I/O性能。 并行文件系统(也称分布式并行文件系统)如GPFS、PVFS和pNFS...

    分布式文件系统中元数据操作的优化.pdf

    【性能提升】在PVFS2中实现了优化方法后,对比了优化后的“remove”操作和原来操作的耗时,结果显示性能提升了大约10%。这表明元数据操作的优化对于提高分布式文件系统的整体性能具有显著效果。 【分布式系统瓶颈】...

    并行文件系统调研报告

    - **存取与管理机制**:PVFS采用了基于客户端缓存的技术来提高性能,同时也支持POSIX接口,使得用户能够像使用传统文件系统一样操作PVFS。此外,PVFS还支持细粒度的锁机制,可以在多用户环境下有效地管理并发访问。 ...

    一种优化分布式文件系统的文件合并策略.pdf

    目前的研究趋势主要集中在系统性能分析和优化,这涉及到对文件系统的深入理解,以及通过实验和量化方法找出性能瓶颈并提出解决方案。 总的来说,本文提出的文件合并策略是对HDFS性能优化的一种创新尝试,它揭示了在...

    分布式文件系统本地数据访问的优化.pdf

    OrangeFS是PVFS的分支,设计用于高性能计算和大数据访问,但其性能在处理大规模数据时可能会受限于网络带宽的使用。 作者通过分析文件大小和数据布局对系统吞吐率的影响,提出了采用共享内存和消息传递相结合的本地...

    论文研究-Metadata-intensive I/O Optimizations in Parallel File Systems.pdf

    文章中提到的优化方法侧重于通过聚合和合并元数据密集型I/O请求来提升性能。这种方法基于以下几个方面的优化策略: 1. 聚合元数据请求:通过聚合来自不同客户端的多个小的元数据I/O请求为一个较大的请求来减少单独...

    论文研究-DMFSsim: a distributed metadata file system simulator.pdf

    5. 元数据分布算法:在分布式文件系统中,如何有效地分布元数据是提升性能的关键。模拟器支持的算法包括如哈希算法、范围划分、动态负载平衡等,这些都是当前并行文件系统研究中的热点问题。 6. 文件系统树层次结构...

    基于多GPU集群的编程框架.pdf

    PVFS是一种高性能的分布式文件系统,它能够支持大规模的数据访问和传输,尤其适合多GPU环境下的数据分布和共享。通过PVFS,可以实现数据的高效分发,确保各GPU节点能够快速获取所需数据,提高系统运行效率。 为了...

    有关集群(机群)的介绍

    - 处理器性能提升,多CPU技术的发展。 - 网络技术进步,提供了更高的通信带宽和更低的延迟。 - 机群易于融入现有的网络环境。 - 开发工具的成熟,便于并行程序的编写。 - 价格低廉,构建成本低。 - 良好的可扩展性,...

    计算集群招标采购项目采购招标书.pdf

    3. **存储系统**:存储系统主要涉及SAS硬盘,转速有10Krpm和15Krpm两种规格,容量覆盖300GB、600GB、1.5TB等,支持RAID配置包括RAID0、RAID1、RAID5、RAID6、RAID10等,用以提升数据的安全性和读写性能。 4. **网络...

    异构并行存储系统的条带级数据布局策略

    该策略旨在找到一种数据布局,使得性能提升远大于性能减少,从而全面提高异构存储系统的性能。 ### 主要知识点: 1. **并行文件系统(Parallel File Systems, PFS)**: - PFS是一种为高性能计算集群设计的文件...

    AU14《AIX系统管理》培训教材

    通过AU14《AIX系统管理》的培训,学习者将能掌握AIX系统的日常运维工作,提升对系统故障的处理能力,同时了解如何通过最佳实践来优化系统性能和保障安全性。对于那些在金融、电信、制造等领域工作的IT专业人士来说,...

    第7讲 文件存储及云存储1

    PVFS是一种开源的并行文件系统,专为高性能计算设计。它的特点和架构包括: - 虚拟化:提供统一的命名空间,屏蔽底层硬件复杂性。 - 分布式元数据:将元数据分散在多个节点,提高访问速度。 - 高带宽:优化了大文件...

    分布式文件系统试用比较

    - **并行文件系统**:如PVFS2、GFS2等,特别设计用于高性能计算领域,支持多台计算机同时访问数据。 #### 二、关键概念解析 1. **元数据服务模型**:元数据服务负责管理和存储文件系统中的目录结构和文件属性等信息...

Global site tag (gtag.js) - Google Analytics