由于要对比swift上传小文件以及fdfs上传小文件的性能,故做性能测试。
1.1 测试环境:
FastDFS集群的搭建方法:【FastDFS分布式文件系统之一】:搭建、部署、配置
tracker server1:node2
tracker server2:node3
group1:node4 / node5 / node6
group2:node7 / node8 / node9
client: node1
use_trunk_file = true(开启chunk存储模式)
replica = 3
1.2 机器参数
CPU:
Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Byte Order: Little Endian
CPU(s): 24
On-line CPU(s) list: 0-23
Thread(s) per core: 2
Core(s) per socket: 6
Socket(s): 2
NUMA node(s): 2
Vendor ID: GenuineIntel
CPU family: 6
Model: 62
Stepping: 4
CPU MHz: 2100.180
BogoMIPS: 4199.42
Virtualization: VT-x
L1d cache: 32K
L1i cache: 32K
L2 cache: 256K
L3 cache: 15360K
NUMA node0 CPU(s): 0-5,12-17
NUMA node1 CPU(s): 6-11,18-23
内存:
126G
硬盘:
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 200G 0 disk
├─sda1 8:1 0 500M 0 part /boot
├─sda2 8:2 0 4G 0 part [SWAP]
└─sda3 8:3 0 195.5G 0 part /
sdb 8:16 0 6.4T 0 disk /mnt/xfsd
1.3 测试方法:
文件生成分为两种:1.随机生成1~100KB之间大小的文件;2.全部大小都为133KB大小的文件。
文件生成程序:
#!/usr/bin/python from random import randint import os data_dir = os.sys.argv[1] n = int(os.sys.argv[2]) if not os.path.exists(data_dir): os.makedirs(data_dir) for x in range(0, n): with open("%s/file_%d" % (data_dir, x), 'wb') as fout: fout.write(os.urandom(1024 * randint(80, 180)))
python中os.urandom(n)的作用:随机产生n个字节的字符串。
通过fastdfs-python-sdk:https://github.com/hay86/fdfs_client-py 编写上传测试文件,文件上传分为串行和并行两种方式:
串行上传:对若干个文件依次调用上传接口,直到完成所有文件上传为止。
并行上传:启动多个进程同时上传文件,每个进程上传多个文件。
串行测试脚本:
#!/usr/local/bin/python2.7 import os import time import sys from multiprocessing import Process try: from fdfs_client.client import * from fdfs_client.exception import * except ImportError: import_path = os.path.abspath('../') sys.path.append(import_path) from fdfs_client.client import * from fdfs_client.exceptions import * #size_total = 0 if __name__ == '__main__': starttime = time.time() filenumbers = 100000 #number of processes client = Fdfs_client('/opt/fdfs_client-py/fdfs_client/client.conf') try: for i in range(filenumbers): filename = '/data/files/small/smallfile' + str(i) client.upload_by_filename(filename) except Exception,e: print "error" + str(e) endtime = time.time() #print "%d byte has been stored into the fdfs." % size_total print "%f seconds for sequence processing computation." % ( endtime - starttime ) #print size_total #print "speed is %f KB/s" % size_total/1024/(endtime-starttime)
并行测试脚本:
#!/usr/local/bin/python2.7 import os import time import sys import multiprocessing from multiprocessing import Process try: from fdfs_client.client import * from fdfs_client.exception import * except ImportError: import_path = os.path.abspath('../') sys.path.append(import_path) from fdfs_client.client import * from fdfs_client.exceptions import * client = Fdfs_client('/opt/fastdfs/fdfs_client-py/fdfs_client/client.conf') def uploadfile(begin,end,t_time,t_count,t_size,lock): try: for idx in range(begin,end): filename = '/data/files/small-10w/smallfile'+str(idx) for y in range(5): starttime = time.time() ret = client.upload_by_filename(filename) endtime = time.time() if(ret['Status'] != 'Upload successed.'): os.system('echo upload fail >> log') else: os.system('echo upload success >> log') # print ret['Status'] with lock: t_count.value += 1 t_time.value += endtime - starttime t_size.value += os.path.getsize(filename) except Exception,e: print "error" + str(e) if __name__ == '__main__': process = [] nprocess = int(os.sys.argv[1]) file_per_process = 100000/nprocess lock = multiprocessing.Lock() total_time = multiprocessing.Value('f',0.0) total_count = multiprocessing.Value('i',0) total_size = multiprocessing.Value('f',0.0) for i in range(nprocess): process.append( Process(target=uploadfile,args=(i * file_per_process , (i+1) * file_per_process, total_time,total_count,total_size,lock))) for p in process: p.start() for p in process: p.join() print "%f seconds for multiprocessing computation." % total_time.value print "%d total count." % total_count.value print "%f total size." % total_size.value os.system("wc -l log")
2.测试结果
上传文件总个数(KB) |
上传文件总大小(KB)
|
平均速度(MB/s)
|
平均每个文件上传所用时间(ms)
|
上传失败次数
|
1000 |
130530
|
21.28 | 5.97 |
0
|
1000
|
130530
|
22.60
|
5.62
|
0
|
10000
|
1294566
|
22.94
|
5.53
|
0
|
10000
|
1294566
|
23.11
|
5.49
|
0
|
100000
|
13018299
|
21.05
|
6.03 |
0
|
100000
|
13018299
|
22.06
|
5.75
|
0
|
并发数
|
上传文件总个数 | 平均每个文件上传所用时间(ms) | 上传失败次数 |
100 | 500000 | 14.62 | 0 |
200
|
500000
|
17.18 |
0
|
250 |
500000
|
22.19 |
0
|
400
|
500000
|
30.62
|
0
|
500
|
500000
|
28.55
|
0
|
800
|
500000
|
27.17
|
0
|
1000
|
500000
|
42.64
|
0
|
Swift上传性能:
上传500000个对象到Swift中
并发数 |
上传文件总个数 |
平均每个文件上传所用时间(ms) |
上传失败百分比 |
100 |
500000 |
78.91 |
0 |
200 |
500000 |
144.27 |
0 |
250 |
500000 |
157.63 |
5.69% |
400 |
195610 |
171.22 |
60.88% |
500 |
193629 |
136.09 |
61.27% |
3.结论
- 速度方面,FastDFS在高并发的情况下上传小文件所用时间要比Swift小很多。
- 稳定性方面:在高并发的情况下,FastDFS上传失败次数为0次,比Swift上传失败次数少。
import time from multiprocessing import Process, Value def func(val): for i in range(50): time.sleep(0.01) val.value += 1 if __name__ == '__main__': v = Value('i', 0) procs = [Process(target=func, args=(v,)) for i in range(10)] for p in procs: p.start() for p in procs: p.join() print v.value多进程实现很简单,使用Process,然后传入目标函数以及参数,start()方法启动进程 join()方法等待所有进程结束之后主进程再结束,其中v是通过multiprocessing.Value定义的变量,是进程之间共享的变量。那么我 们期望最终得到的v.value会是500,但是结果却是比500少的数字,原因就是没有加锁,在进程竞争资源的情况下没有lock住共享变量。那么如何 加锁?
import time from multiprocessing import Process, Value, Lock def func(val, lock): for i in range(50): time.sleep(0.01) <strong>with lock: val.value += 1</strong> if __name__ == '__main__': v = Value('i', 0) lock = Lock() procs = [Process(target=func, args=(v, lock)) for i in range(10)] for p in procs: p.start() for p in procs: p.join() print v.value方法二:
import time from multiprocessing import Process, Value, Lock def func(val, lock): for i in range(50): time.sleep(0.01) <strong>lock.acquire() val.value += 1 lock.release() </strong> if __name__ == '__main__': v = Value('i', 0) lock = Lock() procs = [Process(target=func, args=(v, lock)) for i in range(10)] for p in procs: p.start() for p in procs: p.join() print v.value
两篇参考文章:
Author:忆之独秀
Email:leaguenew@qq.com
注明出处:http://blog.csdn.net/lavorange/article/details/50829552
http://m.blog.csdn.net/article/details?id=50829552
相关推荐
【FastDFS分布式文件服务器详解】 FastDFS是一款开源的高性能、轻量级的分布式文件系统,主要针对海量小文件存储设计,适用于互联网行业的图片、文档等各类文件的存储管理。其核心设计目标是高可用性、高扩展性和低...
FastDFS是一个开源的、高性能的、轻量级的分布式文件系统,它专为互联网应用设计,支持大量小文件的存储。本项目“Python-基于Fastdfs和Python的分布式文件存储系统”旨在利用Python语言与FastDFS进行集成,实现高效...
【标题】:“毕业设计:基于Python+Fastdfs的分布式文件存储系统” 【描述】:“计算机毕设源码”通常指的是学生在完成计算机科学或相关专业毕业设计时编写的代码,这个项目选择了Python语言与Fastdfs作为核心技术...
此外,Python还支持各种Web框架,如Django、Flask等,可以构建Web服务,为用户提供API接口或者图形化界面来操作文件存储系统。 在实现过程中,可能涉及到以下关键技术点: 1. 文件分块策略:为了提高上传和下载的...
《FastDFS分布式存储服务器与Nginx安装配置详解》 在现代互联网应用中,数据的存储和访问效率至关重要。FastDFS作为一个轻量级的分布式文件系统,被广泛应用于中小型企业的文件存储服务,而Nginx作为高性能的反向...
本文将深入探讨如何使用Python3与FastDFS进行交互,以便在Python应用程序中便捷地上传、下载等操作文件。 首先,我们需要确保已经正确配置了FastDFS分布式文件系统。这通常包括安装FastDFS服务端,设置tracker和...
Linux下的FastDFS是一款开源的高性能、轻量级的分布式文件系统,主要针对互联网行业的大量小文件存储场景设计,如图片、文档等。FastDFS提供了高可用的集群部署方案,能够保证服务的稳定性和数据的一致性。在本文中...
分布式文件系统是一种高级的数据存储架构,它通过网络将多台计算机连接起来,形成一个统一的、高可用的存储系统。这种系统能够提供高效的数据访问、管理和备份能力,尤其适合处理大规模的数据存储需求。在本研究中,...
该项目利用了基于springboot + vue + mysql的开发模式框架实现的课设系统,包括了项目的源码资源、sql文件、相关指引文档等等。 【项目资源】:包含前端、后端、移动开发、操作系统、人工智能、物联网、信息化管理...
FastDFS是一个开源的高性能、轻量级的分布式文件系统,它对文件进行管理,包括文件存储、文件同步、文件访问(文件上传、文件下载)等功能,解决了大容量存储和负载均衡的问题。特别适合以文件为载体的在线服务,如...
本项目是基于Python、Fastdfs、Nginx和Mysql构建的一个分布式文件存储平台,它将这些技术巧妙地结合在一起,提供了一个高效、可靠的文件管理系统。 【Python】 Python是一种高级编程语言,以其简洁、易读的语法和...
Laravel-fastdfs是分布式文件存储系统FastDFS的通用composer组件,支持常见的php框架,如laravel,yii2,thinkphp5等. 软件开发设计:应用软件开发、系统软件开发、移动应用开发、网站开发C++、Java、python、web、...
FastDFS是一款开源的高性能、轻量级的分布式文件系统,主要设计用于解决大容量存储和负载均衡的问题。它对文件进行管理,包括文件存储、文件同步、文件访问(文件上传、文件下载)等功能,解决了大容量存储和负载...
FastDFS是一个开源的、高性能的、轻量级的分布式文件系统,特别适合于存储大量小文件,如图片、文档等。在1.2.8版本中,它针对Python进行了优化,为Python开发者提供了更便捷的接口。本文将详细探讨FastDFS Python...
FastDFS 是一个开源的分布式文件系统,旨在解决大规模文件存储和高性能文件访问问题。以下是 FastDFS 的相关知识点。 一、FastDFS 简介 FastDFS 的整体架构主要包括三个角色:Tracker、Storage 和 Client。 1. ...
FastDFS设计的主要目标是为互联网应用提供高效的文件存储服务,它将文件存储与文件访问分离,使得文件服务器专注于文件的存储,而客户端通过Tracker服务器获取文件的存储位置,然后直接与Storage服务器进行文件的...
FastDFS是一个开源的、高性能的、轻量级的分布式文件系统,专为互联网应用设计。它提供了文件存储、文件同步、文件访问(文件上传、文件下载)等功能,解决了大容量存储和负载均衡的问题,特别适合以文件为载体的...