`
357029540
  • 浏览: 737117 次
  • 性别: Icon_minigender_1
  • 来自: 重庆
社区版块
存档分类
最新评论

FastDFS文件系统的安装使用及代码的调用(单个节点)

阅读更多

     本文主要是参考了http://blog.csdn.net/xyang81/article/details/52837974的文章,同时根据自己在使用过程中的情况来做一个总结。

FastDFS是由淘宝的余庆先生所开发,是一个轻量级、高性能的开源分布式文件系统,用纯C语言开发,包括文件存储、文件同步、文件访问(上传、下载)、存取负载均衡、在线扩容、相同内容只存储一份等功能,适合有大容量存储需求的应用或系统。做分布式系统开发时,其中要解决的一个问题就是图片、音视频、文件共享的问题,分布式文件系统正好可以解决这个需求。同类的分布式文件系统有谷歌的GFS、HDFS(Hadoop)、TFS(淘宝)等。

源码开放下载地址:https://github.com/happyfish100

早期源码开放下载地址:https://sourceforge.net/projects/fastdfs/files/

官网论坛:http://bbs.chinaunix.net/forum-240-1.html

FastDFS系统架构

 

FastDFS文件上传流程:



1、client询问tracker上传到的storage,不需要附加参数;

2、tracker返回一台可用的storage;

 

3、client直接和storage通讯完成文件上传。

FastDFS文件下载流程:



1、client询问tracker下载文件的storage,参数为文件标识(组名和文件名);

2、tracker返回一台可用的storage;

3、client直接和storage通讯完成文件下载。

术语

FastDFS两个主要的角色:Tracker Server 和 Storage Server

Tracker Server:跟踪服务器,主要负责调度storage节点与client通信,在访问上起负载均衡的作用,和记录storage节点的运行状态,是连接client和storage节点的枢纽。

Storage Server:存储服务器,保存文件和文件的meta data(元数据)

Group:文件组,也可以称为卷。同组内服务器上的文件是完全相同的,做集群时往往一个组会有多台服务器,上传一个文件到同组内的一台机器上后,FastDFS会将该文件即时同步到同组内的其它所有机器上,起到备份的作用。

meta data:文件相关属性,键值对(Key Value Pair)方式,如:width=1024, height=768。和阿里云OSS的meta data相似。

FastDFS单节点安装 - 服务器规划:

跟踪服务器(Tracker Server):192.168.201.181

存储服务器(Storage Server):192.168.201.181

操作系统:CentOS7

用户:root

数据存储目录:/fastdfs

安装包:

fastdfs-master-V5.05.zip:FastDFS源码

libfastcommon-master.zip:(从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库)

fastdfs-nginx-module-master.zip:storage节点http服务nginx模块

nginx-1.10.0.tar.gz:Nginx安装包

ngx_cache_purge-2.3.tar.gz:图片缓存清除Nginx模块(集群环境会用到)

下载地址https://github.com/happyfish100,也可以到网上搜索相关包。

下载完成后,将压缩包解压到/usr/local/src目录下。

一、所有tracker和storage节点都执行如下操作

1.安装所需的依赖包

 

shell> yum install make cmake gcc gcc-c++

 2.安装libfatscommon

 

shell> cd /usr/local/src
shell> unzip libfastcommon-master.zip
shell> cd libfastcommon-master
shell> ll
-rw-r--r--. 1 root root 6670 10月  8 09:39 HISTORY
-rw-r--r--. 1 root root  566 10月  8 09:39 INSTALL
-rw-r--r--. 1 root root 1438 10月  8 09:39 libfastcommon.spec
-rwxr-xr-x. 1 root root 3099 10月  8 09:39 make.sh
drwxr-xr-x. 2 root root 4096 10月  8 09:39 php-fastcommon
-rw-r--r--. 1 root root  812 10月  8 09:39 README
drwxr-xr-x. 3 root root 4096 10月  8 09:39 src
## 编译、安装
shell> ./make.sh
shell> ./make.sh install

 3.安装FastDFS

 

 

shell> cd /usr/local/src
shell> unzip fastdfs-master-V5.05.zip
shell> cd fastdfs-master
shell> ll
[root@localhost fastdfs-master]# ll
drwxr-xr-x. 3 root root  4096 8月   8 15:17 client
drwxr-xr-x. 2 root root  4096 8月   8 15:17 common
drwxr-xr-x. 2 root root  4096 8月   8 15:17 conf
-rw-r--r--. 1 root root 35067 8月   8 15:17 COPYING-3_0.txt
-rw-r--r--. 1 root root  2881 8月   8 15:17 fastdfs.spec
-rw-r--r--. 1 root root 32259 8月   8 15:17 HISTORY
drwxr-xr-x. 2 root root    46 8月   8 15:17 init.d
-rw-r--r--. 1 root root  7755 8月   8 15:17 INSTALL
-rwxr-xr-x. 1 root root  5548 8月   8 15:17 make.sh
drwxr-xr-x. 2 root root  4096 8月   8 15:17 php_client
-rw-r--r--. 1 root root  2380 8月   8 15:17 README.md
-rwxr-xr-x. 1 root root  1768 8月   8 15:17 restart.sh
-rwxr-xr-x. 1 root root  1680 8月   8 15:17 stop.sh
drwxr-xr-x. 4 root root  4096 8月   8 15:17 storage
drwxr-xr-x. 2 root root  4096 8月   8 15:17 test
drwxr-xr-x. 2 root root  4096 8月   8 15:17 tracker
## 编译、安装
shell> ./make.sh
shell> ./make.sh install

 采用默认安装方式,相应的文件与目录如下:

 

1> 服务脚本:

 

/etc/init.d/fdfs_storaged
/etc/init.d/fdfs_trackerd

 2> 配置文件(示例配置文件):

 

/etc/fdfs
shell> ll /etc/fdfs/
总用量 20
-rw-r--r--. 1 root root 1461 10月 17 15:15 client.conf.sample
-rw-r--r--. 1 root root 7927 10月 17 15:15 storage.conf.sample
-rw-r--r--. 1 root root 7200 10月 17 15:15 tracker.conf.sample

 3> 命令行工具(/usr/bin目录下)

 

 

shell> ll /usr/bin/ | grep fdfs
-rwxr-xr-x.   1 root root      315391 10月 17 15:15 fdfs_appender_test
-rwxr-xr-x.   1 root root      315168 10月 17 15:15 fdfs_appender_test1
-rwxr-xr-x.   1 root root      302016 10月 17 15:15 fdfs_append_file
-rwxr-xr-x.   1 root root      301692 10月 17 15:15 fdfs_crc32
-rwxr-xr-x.   1 root root      302075 10月 17 15:15 fdfs_delete_file
-rwxr-xr-x.   1 root root      302810 10月 17 15:15 fdfs_download_file
-rwxr-xr-x.   1 root root      302400 10月 17 15:15 fdfs_file_info
-rwxr-xr-x.   1 root root      316229 10月 17 15:15 fdfs_monitor
-rwxr-xr-x.   1 root root     1101974 10月 17 15:15 fdfs_storaged
-rwxr-xr-x.   1 root root      325327 10月 17 15:15 fdfs_test
-rwxr-xr-x.   1 root root      320448 10月 17 15:15 fdfs_test1
-rwxr-xr-x.   1 root root      447878 10月 17 15:15 fdfs_trackerd
-rwxr-xr-x.   1 root root      303002 10月 17 15:15 fdfs_upload_appender
-rwxr-xr-x.   1 root root      304022 10月 17 15:15 fdfs_upload_file

 二、配置tracker服务器

 

1.复制tracker样例配置文件,并重命名

 

shell> cp /etc/fdfs/tracker.conf.sample /etc/fdfs/tracker.conf

 2.修改tracker配置文件

 

shell> vim /etc/fdfs/tracker.conf
# 修改的内容如下:
disabled=false              # 启用配置文件
port=22122                  # tracker服务器端口(默认22122)
base_path=/fastdfs/tracker  # 存储日志和数据的根目录

 其它参数保留默认配置, 具体配置解释可参考官方文档说明:http://bbs.chinaunix.net/thread-1941456-1-1.html

 

3.创建base_path指定的目录

 

shell> mkdir -p /fastdfs/tracker

 4.防火墙中打开tracker服务器端口( 默认为 22122)

 

 

shell> vi /etc/sysconfig/iptables 

 添加如下端口行:

 

 

-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT 

 重启防火墙:

shell> service iptables restart

 如果安装了firewall,则需要通过以下命令来告诉防火墙端口可以使用

shell> firewall-cmd --permanent --zone=public --add-port=22122/tcp

 然后在通过以下命令来重启防火墙

shell> firewall-cmd reload

 5.启动tracker服务器

shell> /etc/init.d/fdfs_trackerd start

 初次启动,会在/fastdfs/tracker目录下生成logs、data两个目录。 


 是否启动成功:

ps -ef | grep fdfs_trackerd


6.停止tracker服务器

shell> /etc/init.d/fdfs_trackerd stop

 7.设置tracker服务开机启动

shell> chkconfig fdfs_trakcerd on

 三、配置storage服务器

1.复制storage样例配置文件,并重命名

 

shell> cp /etc/fdfs/storage.conf.sample /etc/fdfs/storage.conf
 2.编辑配置文件

 

 

shell> vi /etc/fdfs/storage.conf

# 修改的内容如下:
disabled=false                      # 启用配置文件
port=23000                          # storage服务端口
base_path=/fastdfs/storage          # 数据和日志文件存储根目录
store_path0=/fastdfs/storage        # 第一个存储目录
tracker_server=192.168.201.181:22122  # tracker服务器IP和端口
http.server_port=8888               # http访问文件的端口
 其它参数保留默认配置, 具体配置解释可参考官方文档说明:http://bbs.chinaunix.net/thread-1941456-1-1.html
3.创建基础数据目录

 

shell> mkdir -p /fastdfs/storage
 4.防火墙中打开storage服务器端口( 默认为 23000)

 

 

shell> vi /etc/sysconfig/iptables 
 添加如下端口行:

 

 

-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT
 重启防火墙:

 

 

shell> service iptables restart
 如果安装了firewall,则需要通过以下命令来告诉防火墙端口可以使用

 

 

shell> firewall-cmd --permanent --zone=public --add-port=23000/tcp
 然后在通过以下命令来重启防火墙

 

 

shell> firewall-cmd reload
 5.启动storage服务器

 

 

shell> /etc/init.d/fdfs_storaged start
 初次启动,会在/fastdfs/storage目录下生成logs、data两个目录。 

 



检查FastDFS Tracker Server是否启动成功:

ps -ef | grep fdfs_storaged 



 6.
停止storage服务器

 

shell> /etc/init.d/fdfs_storaged stop
 7.设置storage服务开机启动

 

 

shell> chkconfig fdfs_storaged on
四、文件上传测试(trackerServer ip:192.168.201.181)

 

 

1.修改Tracker服务器客户端配置文件

 

shell> cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf
shell> vim /etc/fdfs/client.conf
# 修改以下配置,其它保持默认
base_path=/fastdfs/tracker
tracker_server=192.168.201.181:22122
返回文件ID号:group1/M00/00/00/wKgAyVgEjSGANYtkAAB7mZt7HdQ08538.h (能返回以上文件ID,说明文件已经上传成功) 

 



五、在所有storage节点安装fastdfs-nginx-module

 

1.fastdfs-nginx-module 作用说明

      FastDFS 通过 Tracker 服务器,将文件放在 Storage 服务器存储,但是同组存储服务器之间需要进入文件复制,有同步延迟的问题。假Tracker 服务器将文件上传到了 192.168.0.201,上传成功后文件ID已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 192.168.0.202,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 192.168.4.126 上取文件,就会出现文件无法访问的错误。而 fastdfs-nginx-module 可以重定向文件连接到源服务器取文件,避免客户端由于复制延迟导致的文件无法访问错误。

 

2.解压fastdfs-nginx-module-master.zip

 

shell> cd /usr/local/src
shell> unzip fastdfs-nginx-module-master.zip
 3.安装nginx

 

     nignx的安装参考http://www.cnblogs.com/hanyinglong/p/5102141.html。

     注意:在执行./configure配置nginx参数的时候,需要将fastdfs-nginx-moudle源码作为模块编译进去:./configure --prefix=/opt/nginx --sbin-path=/usr/bin/nginx --add-module=/usr/local/src/fastdfs-nginx-module/src 这个时候是无法启动nginx的,需要完成后面步骤后才可以启动。

 

4.复制 fastdfs-nginx-module 源码中的配置文件到/etc/fdfs 目录, 并修改

 

shell> cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/
shell> vi /etc/fdfs/mod_fastdfs.conf
 修改以下配置:

 

 

connect_timeout=10                  # 客户端访问文件连接超时时长(单位:秒)
base_path=/tmp                      # 临时目录
tracker_server=192.168.201.181:22122  # tracker服务IP和端口
storage_server_port=23000           # storage服务端口
group_name=group1                   # 组名
url_have_group_name=true            # 访问链接前缀加上组名
store_path0=/fastdfs/storage        # 文件存储路径
 其它配置保持默认即可。

 

 

5.复制 FastDFS 的部分配置文件到/etc/fdfs 目录

 

shell> cd /usr/local/src/fastdfs-master/conf
shell> cp http.conf mime.types /etc/fdfs/
 6.在/fastdfs/storage文件存储目录下创建软连接,将其链接到实际存放数据的目录

 

 

shell> ln -s /fastdfs/storage/data/ /fastdfs/storage/data/M00
 

 

7.配置nginx访问storage文件

      在安装的nignx目录下的config目录中nignx.conf下简洁版nginx配置:

 

user nobody;
worker_processes 1;
events {
    worker_connections 1024;
}
http {
    include mime.types;
    default_type application/octet-stream;
    sendfile on;
    keepalive_timeout 65;
    server {
        listen 8888;
        server_name localhost;
        location ~/group([0-9])/M00 {
            #这个地方可以不做修改
            #ngx_fastdfs_module;
        }
        error_page 500 502 503 504 /50x.html;

        location = /50x.html {
            root html;
        }
    }
}
 注意事项:

 

     A.8888 端口值是要与/etc/fdfs/storage.conf 中的http.server_port=8888 相对应,因为 http.server_port 默认为 8888,如果想改成 80,则要对应修改过来。

     B.Storage 对应有多个 group 的情况下,访问路径带 group 名,如/group1/M00/00/00/xxx,对应的 Nginx 配置为:

 

location ~/group([0-9])/M00 {
    #ngx_fastdfs_module;
}
    C.如查下载时如发现老报 404, 将 nginx.conf 第一行 user nobody 修改为 user root 后重新启动。

 

 

8.防火墙中打开 Nginx 的 8888 端口

 

shell> vi /etc/sysconfig/iptables
 添加:

 

 

-A INPUT -m state --state NEW -m tcp -p tcp --dport 8888 -j ACCEPT
 重新启动防火墙:

 

 

shell> service iptables restart
 如果安装了firewall,则需要通过以下命令来告诉防火墙端口可以使用

 

 

shell> firewall-cmd --permanent --zone=public --add-port=8888/tcp
 然后在通过以下命令来重启防火墙

 

 

shell> firewall-cmd reload
 9.启动Nginx

 

shell> /usr/bin/nginx
ngx_http_fastdfs_set pid=xxx

     nginx重启命令为:/usr/sbin/nginx -s reload

     启动nginx后,如果打印出ngx_http_fastdfs_set pid=xxx,表示fastdfs-nginx-module模块加载成功了,xxx表示模块的进程ID。

10.通过浏览器访问测试时上传的文件

      测试上传后返回的文件ID为:group1/M00/00/00/wKgAyVgEjSGANYtkAAB7mZt7HdQ08538.h,用浏览访问的地址为:http://192.168.201.181:8888/group1/M00/00/00/wKgAyVgEjSGANYtkAAB7mZt7HdQ08538.h

注意: 千万不要使用 kill -9 命令强杀 FastDFS 进程,否则可能会导致 binlog 数据丢失。

 

六、使用java程序来向文件服务器进行文件操作(springboot框架,IDEA开发工具)

 

1.新建pom项目,通过pom引入相关jar包

<parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>1.5.7.RELEASE</version>
    </parent>

    <dependencies>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>

        <dependency>
            <groupId>net.oschina.zcx7878</groupId>
            <artifactId>fastdfs-client-java</artifactId>
            <version>1.27.0.0</version>
        </dependency>

        <dependency>
            <groupId>commons-io</groupId>
            <artifactId>commons-io</artifactId>
            <version>2.5</version>
        </dependency>
    </dependencies>

 2.在source文件夹下面增加fdfs的配置文件fdfs_client.conf

connect_timeout=10
network_timeout=30
charset = UTF-8
#文件服务器的http端口
http.tracker_http_port=8888
http.anti_steal_token=no
#自定义
http.secret_key=FastDFS1234567890
#tracker服务器地址
tracker_server=192.168.201.181:22122

 3.在App.java中自定义bean的引入StorageClient1

import org.csource.fastdfs.*;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import org.springframework.context.annotation.Bean;

/**
 * @author liaoyubo
 * @version 1.0 2017/9/18
 * @description
 */
@SpringBootApplication
public class App {

    public static void main(String [] args){
        SpringApplication.run(App.class,args);
    }

    @Bean(name = "myStorageClient1")
    public StorageClient1 storageClient1(){
        try {
            // 初始化文件资源
            ClientGlobal.init("F:\\testFastdfs\\src\\main\\resources\\fdfs_client.conf");
            // 链接FastDFS服务器,创建tracker和Storage
            TrackerClient trackerClient = new TrackerClient();
            TrackerServer trackerServer = trackerClient.getConnection();
            if(trackerServer == null){
                throw new IllegalStateException("无法连接到跟踪服务器");
            }
            StorageServer storageServer = trackerClient.getStoreStorage(trackerServer);
            if(storageServer == null){
                throw new IllegalStateException("无法连接到存储服务器");
            }
            return new StorageClient1(trackerServer,storageServer);
        }catch (Exception e){
        }
        return null;
    }

}

 4.定义controller类进行上传下载测试

package com.fastdfs.controller;

import org.apache.catalina.servlet4preview.http.HttpServletRequest;
import org.apache.commons.io.IOUtils;
import org.csource.common.MyException;
import org.csource.common.NameValuePair;
import org.csource.fastdfs.*;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.http.HttpHeaders;
import org.springframework.http.HttpStatus;
import org.springframework.http.MediaType;
import org.springframework.http.ResponseEntity;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RequestMethod;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;
import org.springframework.web.multipart.MultipartFile;

import javax.annotation.Resource;
import java.io.FileOutputStream;
import java.io.IOException;
import java.util.HashMap;
import java.util.Iterator;
import java.util.Map;
import java.util.UUID;

/**
 * @author liaoyubo
 * @version 1.0 2017/9/18
 * @description
 */
@RestController
public class UpDownController {

    @Autowired
    @Resource(name = "myStorageClient1")
    private StorageClient1 storageClient1;

    /**
     * 上传文件
     * @param multipartFile
     * @param httpServletRequest
     * @throws IOException
     * @throws MyException
     */
    @RequestMapping(value = "/upload",method = RequestMethod.POST)
    public void upload(MultipartFile multipartFile, HttpServletRequest httpServletRequest) throws IOException, MyException {
        String fileExtName = multipartFile.getOriginalFilename().split("\\.")[1];
        String fileName = multipartFile.getOriginalFilename().split("\\.")[0];
        byte[] bytes = multipartFile.getBytes();
        // 拼接服务器的文件路径
        StringBuffer address = new StringBuffer();
        address.append("http://127.0.0.1");
        //设置文件元数据
        Map<String,String> metaList =  new HashMap<String, String>();
        metaList.put("fileName",fileName);
        metaList.put("fileExtName",fileExtName);
        NameValuePair[] nameValuePairs = null;
        if (metaList != null) {
            nameValuePairs = new NameValuePair[metaList.size()];
            int index = 0;
            for (Iterator<Map.Entry<String,String>> iterator = metaList.entrySet().iterator(); iterator.hasNext();) {
                Map.Entry<String,String> entry = iterator.next();
                String name = entry.getKey();
                String value = entry.getValue();
                nameValuePairs[index++] = new NameValuePair(name,value);
            }
        }

        //利用字节流上传文件
        String strings = storageClient1.upload_file1(bytes, fileExtName,nameValuePairs);
        address.append("/" + strings);
        // 全路径
        System.out.println(address);
    }

    @RequestMapping("/testUpload")
    public void upload(){
        String[] strings;
        //第二个参数必须是文件的后缀名
        try {
            strings = storageClient1.upload_file("E:\\12.jpg", "jpg", null);
            for (String string : strings) {
                System.out.println(string);
            }
        } catch (IOException e) {
            e.printStackTrace();
        } catch (MyException e) {
            e.printStackTrace();
        }
    }

    /**
     * 获取文件元数据
     * @param fileId
     * @return
     */
    public  Map<String,String> getMetaList(String fileId){
        try {
            NameValuePair[] metaList = storageClient1.get_metadata1(fileId);
            if (metaList != null) {
                HashMap<String,String> map = new HashMap<String, String>();
                for (NameValuePair metaItem : metaList) {
                    map.put(metaItem.getName(),metaItem.getValue());
                }
                return map;
            }
        } catch (IOException e) {
            e.printStackTrace();
        } catch (MyException e) {
            e.printStackTrace();
        }
        return null;
    }

    /**
     * 删除文件
     * @param fileId
     * @return 删除失败返回-1,否则返回0
     */
    @RequestMapping(value = "/delFile",method = RequestMethod.DELETE)
    public int delFile(@RequestParam String fileId){
        try {
            return storageClient1.delete_file1(fileId);
        } catch (IOException e) {
            e.printStackTrace();
        } catch (MyException e) {
            e.printStackTrace();
        }
        return -1;
    }

    @RequestMapping(value = "/downloadFile",method = RequestMethod.POST)
    public ResponseEntity<byte[]> downloadFile(@RequestParam String fileId){
        byte[] content = null;
        HttpHeaders headers = new HttpHeaders();
        try {
            Map<String,String> metaMap = getMetaList(fileId);
            content = storageClient1.download_file1(fileId);
            headers.setContentDispositionFormData("attachment",  new String(metaMap.get("fileName").getBytes("UTF-8"),"iso-8859-1"));
            headers.setContentType(MediaType.APPLICATION_OCTET_STREAM);
        } catch (IOException e) {
            e.printStackTrace();
        } catch (MyException e) {
            e.printStackTrace();
        }
        return new ResponseEntity<byte[]>(content, headers, HttpStatus.CREATED);
    }

    @RequestMapping("/testDown")
    public void download(){
        byte[] b = new byte[0];
        try {
            //该参数都是通过上传的时候返回的参数获取的
            b = storageClient1.download_file("group1", "M00/00/00/wKjJtVnIef-AIHo_AAIn_DuAAjs682.jpg");
            System.out.println(b.length);
            String uuid = UUID.randomUUID().toString();
            System.out.println(uuid);
            // 将下载的文件流保存
            IOUtils.write(b, new FileOutputStream("E:/"+ uuid +".jpg"));
        } catch (IOException e) {
            e.printStackTrace();
        } catch (MyException e) {
            e.printStackTrace();
        }
    }

}

 

  • 大小: 7.7 KB
  • 大小: 9.2 KB
  • 大小: 35 KB
  • 大小: 8 KB
  • 大小: 5.4 KB
分享到:
评论
1 楼 neufjava 2018-11-13  
感谢您的分享!参考您的文章解决了困扰我一天的配置问题。再次感谢!

相关推荐

    整合java实例 FastDFS

    FastDFS是一个开源的高性能、轻量级的分布式文件系统,它对文件进行管理,包括文件存储、文件同步、文件访问(文件上传、文件下载)等功能,解决了大容量存储和负载均衡的问题。FastDFS特别适合以文件为载体的在线...

    fastdfs-client-java-1.27.zip

    FastDFS是一款轻量级的分布式文件系统,专为互联网设计,尤其适用于图片和视频等大数据量的存储。本文将深入探讨FastDFS的Java客户端1.27版本,包括其核心特性、工作原理以及如何在项目中进行集成和应用。 FastDFS...

    fastdfs-master.zip

    同时,FastDFS支持文件的冗余备份,通过设置副本数量实现数据的安全性,确保在单个节点故障时仍能正常提供服务。 5. **文件操作接口** FastDFS提供了丰富的文件操作接口,包括文件上传、下载、删除、更新等,且...

    fastdfs_client.zip

    FastDFS是一款开源的高性能、轻量级的分布式文件系统,主要解决了大容量存储和负载均衡的问题,尤其适用于互联网行业的大规模文件存储。在本篇文章中,我们将深入探讨FastDFS客户端的集成过程及其关键知识点。 首先...

    fastdfs.rar

    FastDFS是一款开源的、轻量级的分布式文件系统,主要用于解决大容量存储和负载均衡的问题,尤其适合在互联网环境中存储和分发大量的小文件。FastDFS的设计理念是简单高效,它将文件存储和HTTP服务分离,使得文件...

    7.15测试.txt

    3. **文件分片**:对于大文件,FastDFS支持将单个文件分割成多个小块进行存储,提高读写效率。 4. **集群扩展**:随着业务增长,可以轻松地添加新的存储节点或组来扩展系统的存储容量和处理能力。 5. **文件生命周期...

    云存储系统需求分析.pdf

    9. **分布式系统**:采用分布式系统是为了实现冗余备份和动态扩容,选择合适的分布式文件系统(如Tfs或Fastdfs)是关键。这些系统针对图片存储进行了优化,提供高速访问和数据一致性保证,但可能需要外围开发以支持...

    分布式、微服务、云架构dubbo+zookeeper+springmvc+mybatis+shiro+redis】分布式大型互联网企业架构

    `FastDFS`是一个开源的分布式文件系统,它对文件进行管理,包括文件存储、文件同步、文件访问(文件上传、文件下载)等功能,解决了大容量存储和负载均衡的问题。 【ActiveMQ】 `ActiveMQ`是Apache的开源消息中间件...

    淘淘商城面试总结文档

    - 采用FastDFS分布式文件系统来存储大量图片。 - FastDFS支持服务器集群、水平扩展以及高可用特性。 - **高并发解决方案**: - 压力测试结果显示单个Tomcat服务器的并发量可达400。 - 当前配置支持约2000并发量...

    DUBBO 详细介绍

    该平台不仅提供了项目模块化和热插拔的能力,还支持多种前沿技术,如Redis分布式缓存、FastDFS分布式文件系统等,从而极大地提升了开发效率和系统的可维护性。 #### 五、总结 Dubbo作为一个成熟稳定的微服务框架,...

Global site tag (gtag.js) - Google Analytics