tracer.conf
普通情况下我只修改以下这些参数:
base_path=/home/fastdfs/tracer
download_server=1
log_level=info
http.server_port=8080
work_threads=8
rotate_error_log = true
use_trunk_file = true
trunk_create_file_space_threshold = 100M(本机测试才会设置这么小)
log_file_keep_days = 7
下面是配置的翻译和详细说明:
# 这个配置文件是否失效
disabled=false
# 可以版定一个ip,默认为空,绑定所有ip
bind_addr=
# trace server的监听端口
port=22122
# 连接超时时间,针对socket套接字函数connect,默认为30秒
connect_timeout=30
# 网络通讯超时时间,默认是60秒
network_timeout=60
# 工作文件夹,trace的日志也存在此
# 附目录说明:
# tracker server目录及文件结构:
# ${base_path}
# |__data
# | |__storage_groups.dat:存储分组信息
# | |__storage_servers.dat:存储服务器列表
# |__logs
# |__trackerd.log:tracker server日志文件
# 数据文件storage_groups.dat和storage_servers.dat中的记录之间以换行符(\n)分隔,字段之间以西文逗号(,)分隔。
# storage_groups.dat中的字段依次为:
# 1. group_name:组名
# 2. storage_port:storage server端口号
# storage_servers.dat中记录storage server相关信息,字段依次为:
# 1. group_name:所属组名
# 2. ip_addr:ip地址
# 3. status:状态
# 4. sync_src_ip_addr:向该storage server同步已有数据文件的源服务器
# 5. sync_until_timestamp:同步已有数据文件的截至时间(UNIX时间戳)
# 6. stat.total_upload_count:上传文件次数
# 7. stat.success_upload_count:成功上传文件次数
# 8. stat.total_set_meta_count:更改meta data次数
# 9. stat.success_set_meta_count:成功更改meta data次数
# 10. stat.total_delete_count:删除文件次数
# 11. stat.success_delete_count:成功删除文件次数
# 12. stat.total_download_count:下载文件次数
# 13. stat.success_download_count:成功下载文件次数
# 14. stat.total_get_meta_count:获取meta data次数
# 15. stat.success_get_meta_count:成功获取meta data次数
# 16. stat.last_source_update:最近一次源头更新时间(更新操作来自客户端)
# 17. stat.last_sync_update:最近一次同步更新时间(更新操作来自其他storage server的同步)
base_path=/home/fastdfs/tracer
# 本traceserver最大连接数
max_connections=256
# 接收数据的线程数
# 默认1个
# since V4.07
accept_threads=1
# 工作线程数,小于max_connections
# 默认4个
work_threads=4
# 文件上传选取group的规则:
# 0:轮询
# 1:指定服务器组
# 2:负载均衡,文件上传到可用空间最大的group
store_lookup=2
# 当store_lookup设置为1时,指定上传的group
store_group=group1
# 上传文件选择服务器的规则
# 0:轮询(默认)
# 1:按照IP排序,排在第一的server
# 2:按照优先级排序,最小的server
store_server=0
# 上传文件选择路劲的规则
# 0:轮询(默认)
# 2:负载均衡,选择可用空间最大的文件夹
store_path=0
# 下载文件选择服务器的规则
# 0:轮询(默认)
# 1:上传到那台服务器,就从哪台服务器下载
download_server=0
# 为系统或其他应用程序保留存储空间
# 如果本机的剩余存储空间小于保留空间,那么本group不再允许上传文件
# 默认单位是byte
### G or g for gigabyte(GB)
### M or m for megabyte(MB)
### K or k for kilobyte(KB)
### no unit for byte(B)
### XX.XX% as ratio such as reserved_storage_space = 10%
reserved_storage_space = 10%
#日志级别
### emerg for emergency
### alert
### crit for critical
### error
### warn for warning
### notice
### info
### debug
log_level=info
# 运行本进程的Unix用户组,如果不设置,默认是当前用户所在的group
run_by_group=
# 运行本进程的用户名,如果不设置,默认是当前用户的用户名
run_by_user=
# 可以连接到本机的主机ip范围,*代表允许所有服务器
# 支持这样的表达式:10.0.1.[1-15,20] or host[01-08,20-25].domain.com
allow_hosts=*
# 将缓存中的日志落地到磁盘的间隔时间,默认是10秒
sync_log_buff_interval = 10
# 检查storage server是否可用的心跳时间,默认是120秒
# storage server定期向tracker server 发心跳,如果tracker server在一个check_active_interval内还没有收到storage server的一次心跳,那边将认为该storage server已经下线。所以本参数值必须大于storage server配置的心跳时间间隔。通常配置为storage server心跳时间间隔的2倍或3倍。
check_active_interval = 120
# 线程栈大小,默认64k,不建议设置小于64k
thread_stack_size = 64KB
# 当集群中的storage server的ip变化的时候,集群是否自动调整
# 默认值为true
storage_ip_changed_auto_adjust = true
# 存储服务器同步一个文件需要消耗的最大时间,缺省为86400s,即一天。
# 注:本参数并不影响文件同步过程。本参数仅在下载文件时,作为判断当前文件是否被同步完成的一个标准
storage_sync_file_max_delay = 86400
# 存储服务器之间同步文件的最大延迟时间,缺省为300s,即五分钟。
# 注:本参数并不影响文件同步过程。本参数仅在下载文件时,作为判断当前文件是否被同步完成的一个标准
storage_sync_file_max_time = 300
# 是否启用使用一个trunk file来存储数个小文件的模式
# 默认值为false
use_trunk_file = false
# trunk file分配的最小容量,建议小于4k,默认值是256字节
# 一个文件如果小于256字节,也会在trunk file中分配到256字节
slot_min_size = 256
# 上传的文件的大小小于这个配置值的时候,会被存储到trunk file中
# slot_max_size > slot_min_size
slot_max_size = 16MB
# trunk file文件大小
trunk_file_size = 64MB
# 是否提前创建trunk file,默认值为false
trunk_create_file_advance = false
# 如果提前创建trunk file,按照这个配置设置的时间来创建
trunk_create_file_time_base = 02:00
# 创建trunk file的时间间隔, 单位为秒
# 如果每天只提前创建一次,则设置为86400
trunk_create_file_interval = 86400
# 当可用的trunk file的尺寸小于此阈值,我们创建trunkfile
# 比如trunk file的可用尺寸为16G,小于20G,那么会创建4GB的trunk file
trunk_create_file_space_threshold = 20G
# 在加载trunk file 的时候是否检查可用空间是否被占用的
# 默认是false ,如果设置为true,会减慢加载trunk file的速度。
trunk_init_check_occupying = false
# 是否忽略快照文件storage_trunk.dat,只从读取的是trunk binlog的offset,然后从binlog的offset开始加载
# 缺省为false。只要当从v3.10以下版本升级到v3.10以上版本时,可能才需要打开本选项。
trunk_init_reload_from_binlog = false
# 压缩trunk binlog 的最小时间间隔,单位:秒
# 默认值为0,0代表不压缩
# FastDFS会在trunk初始化或者被销毁的时候压缩trunk binlog文件
# 建议设置成86400,一天设置一次
trunk_compress_binlog_min_interval = 0
# 是否使用storage id 替换 ip,默认为false
use_storage_id = false
# 指定storage id的文件名,允许使用绝对路径
storage_ids_filename = storage_ids.conf
# storage server的id类型
# ip:ip地址
# id:服务器的id名称
# id type of the storage server in the filename, values are:
# 只有use_storage_id为true时,本配置才有用
id_type_in_filename = ip
# 存储从文件是否采用symbol link(符号链接)方式
# 默认为false , 如果设置为true,一个从文件将占用两个文件:原始文件及指向它的符号链接。
store_slave_file_use_link = false
# 是否定期轮转error log,目前仅支持一天轮转一次
rotate_error_log = false
# 如果按天轮转错误日志,具体生成新错误日志文件的时间
# Hour from 0 to 23, Minute from 0 to 59
error_log_rotate_time=00:00
# 是否在错误日志文件达到一定大小时生成新的错误日志文件
# 0代表对日志文件大小不敏感
rotate_error_log_size = 0
# 日志文件保存日期
# 0表示永久保存,不删除
# 默认为0
log_file_keep_days = 0
# 是否使用连接池,默认不使用
use_connection_pool = false
# 连接池中连接的超时时间,单位为秒
connection_pool_max_idle_time = 3600
# HTTP端口
http.server_port=8080
# 通过HTTP借口检查storage是否可用,默认心跳时间为30秒
http.check_alive_interval=30
# 检查storage server是否可用的方式:
# tcp表示,只要能建立连接就算服务器可用
# http表示,建立连接后,还需要发送一个请求到http.check_alive_uri,并且收到200应答
# default value is tcp
http.check_alive_type=tcp
# 检查storage server是否可用的http页面地址
http.check_alive_uri=/status.html
相关推荐
本教程将详细介绍如何在CentOS 7操作系统上安装FastDFS v5.08版本,并进行基本配置。 首先,确保你的CentOS 7系统已经更新到最新版本,并安装了基础开发工具,包括GCC编译器和其他必要的库,通过运行以下命令: ``...
4. 配置FastDFS:根据FastDFS提供的配置模板,修改`/etc/fdfs`目录下的配置文件,如`tracker.conf`和`storage.conf`,配置Tracker和Storage服务器的相关参数。 5. 初始化数据目录:为Storage服务器创建数据存储目录...
你需要根据实际情况修改这些样本文件,例如`tracker.conf`, `storage.conf` 和 `client.conf`,并配置服务器的IP地址、端口号等信息。 五、启动FastDFS服务 启动跟踪服务器和存储服务器,可以使用以下命令: ```...
本章节详细介绍了如何在Linux CentOS 6.5环境下搭建FastDFS环境,包括Tracker和Storage的安装配置过程。 ##### 2.1 环境要求 - **操作系统**:Linux CentOS 6.5 - **用户**:root用户登录 - **服务组件**:安装1个...
1. Tracker服务配置:`mkdir -p /data/fastdfs/tracker`,然后编辑`tracker.conf`文件,修改`base_path`为`/data/fastdfs/tracker` 2. Storage服务配置:`mkdir -p /data/fastdfs/storage`,然后编辑`storage.conf`...
- `tracker.conf.sample`:tracker 的配置文件模板。 - `storage.conf.sample`:storage 的配置文件模板。 - `client.conf.sample`:客户端的配置文件模板。 ##### 1.3.2 启动 tracker - **编辑 tracker 配置**...
- 修改tracker配置:复制`tracker.conf.sample`为`tracker.conf`,使用vim编辑器打开并设置`base_path`,创建相应的目录,然后启动`fdfs_trackerd`服务,并设置开机启动。 - 修改storage配置:复制`storage.conf....
3. 配置文件:修改`conf/fastdfs.conf`,配置Tracker和Storage Server的相关参数,如IP地址、端口、日志位置等。 4. 启动服务:启动Tracker和Storage Server,确保服务正常运行。 五、FastDFS与Nginx集成 1. 安装...
3. **配置文件**:修改FastDFS的配置文件,如`/etc/fdfs/tracker.conf`和`/etc/fdfs/storage.conf`,设置正确的服务器IP、端口、数据存储路径等参数。 4. **启动服务**:启动Tracker Server和Storage Server服务,...
6. 配置FastDFS的配置文件,如tracker.conf和storage.conf。 7. 启动FastDFS的服务,包括跟踪服务器和存储服务器。 8. 测试FastDFS的安装是否成功,可以尝试上传和下载文件。 在实际应用中,FastDFS常与其他开源...
- 配置FastDFS的配置文件,如`/etc/fdfs`目录下的`tracker.conf`和`storage.conf`,根据实际需求设置各项参数。 - 初始化数据目录,例如`mkdir -p /data/fastdfs/data`,并修改`storage.conf`中的数据存储路径。 ...
4. 配置FastDFS和Nginx,包括设置配置文件,如`nginx.conf`和FastDFS的`tracker.conf`、`storage.conf`等。 5. 启动FastDFS的Tracker和Storage服务,以及Nginx服务。 6. 测试安装,可以通过HTTP请求访问FastDFS中的...
- 修改 Tracker Server 配置文件 `tracker.conf`。 - 修改客户端配置文件 `client.conf`。 - 创建 Tracker Server 的数据目录。 - 测试启动并关闭 Tracker Server。 - **步骤5**:配置 Storage Server。 - 拷贝...