`
TT1981
  • 浏览: 13373 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论
文章列表
主要是配置2个文件,一个是tracker.conf还有个是 storage.conf 文件。 首先是 tracker.conf # is this config file disabled # false for enabled # true for disabled disabled=false # 这个配置文件是否不生效,呵呵(改成是否生效是不是会让人感觉好点呢?) fa ...
1 安装libevent(下载,解压,进入解压后的目录分别执行):   ../configure –prefix=/usr .make clean; make make install    2.安装fastdfs(下载,解压) (1)   tar -vxzf FastDFS_v2.02.tar.gz /home/soar/FastDFS   /home/soar/FastDFS 也可以是其他目录,记住这是解压目录,以后用 %FastDFS% 表示) (2) 由于要使用内置的 http 服务,因此编辑 %FastDFS%/make.sh 文件,找到 #WIT ...
1 重写了FastDFS的客户端,重新封装了一次。 2 数据为了防止安全性,做了raid 1 3 在2012数据库技术大会上也是碰到了fastdfs的作者本人,可能是做了管理,已经一个人精力有限,fastdfs又是c写的,我准备在第二个版本中放弃fastdfs作为元数据的存储 4 Fastdfs在并发300的写入的时候,出现了性能问题,但是项目在5年内连50的并发连接都是达不到的,所以不需要过度设计了的 5 由于读的压力比较大,在前面放了层redis的架构,物理数据也最大是几十个G,基本上都是在cache中命中 6 压缩和淘宝,163 一样用了GraphicsMagick,没有用 ...
机器配置 2颗cpu,每颗cpu是4核, Intel(R) Xeon(R) CPU E5606 @ 2.13GHz 内存是8G ——————————————————————————————————– 测试场景1 单线程 平均写入时间是86毫秒 乱序跑了11个小时,写入了 28万个文件,平均文件大小是700K,写入了230G文件大小,硬盘总大小230G,平均cpu 10% ——————————————————————————————————– 测试场景2 50线程 平均写入时间是3300毫秒 乱序跑了11个小时,写入了 29万个文件,平均文件大小是700K, 写入了230G文件 ...
参加了在北京举行的2010Qcon大会,记录下这次的感受. 大会的酒店外景 酒店对面的小区 北京的房价确实不低     大会指引 签到处 大会发的装备   大会主场   豆瓣的python专题,只发了最经典的结束语.   金山的WPS架构师-看这身材,估计是金山的抗霸子(这GG估计身体崩好的那种). 再来一张这个GG,看照片,
Global site tag (gtag.js) - Google Analytics