本帖最后由 happy_fish100 于 2012-11-04 20:26 编辑 首先是 tracker.conf # is this config file disabled # false for enabled # true for disabled disabled=false # 这个配置文件是否不生效,呵呵(改成是否生效是不是会让人感觉好点呢?) false 为生效(否则不生效) true反之 # bind an address of this host # empty for bind all addresses of this host bind_addr= # 是否绑定IP, # bind_addr= 后面为绑定的IP地址 (常用于服务器有多个IP但只希望一个IP提供服务)。如果不填则表示所有的(一般不填就OK),相信较熟练的SA都常用到类似功能,很多系统和应用都有 # the tracker server port port=22122 # 提供服务的端口,不作过多解释了 # connect timeout in seconds # default value is 30s connect_timeout=30 #连接超时时间,针对socket套接字函数connect # network timeout in seconds network_timeout=60 # tracker server的网络超时,单位为秒。发送或接收数据时,如果在超时时间后还不能发送或接收数据,则本次网络通信失败。 # the base path to store data and log files base_path=/home/yuqing/fastdfs # base_path 目录地址(根目录必须存在,子目录会自动创建) # 附目录说明: tracker server目录及文件结构: ${base_path} |__data | |__storage_groups.dat:存储分组信息 | |__storage_servers.dat:存储服务器列表 |__logs |__trackerd.log:tracker server日志文件 数据文件storage_groups.dat和storage_servers.dat中的记录之间以换行符(\n)分隔,字段之间以西文逗号(,)分隔。 storage_groups.dat中的字段依次为: 1. group_name:组名 2. storage_port:storage server端口号 storage_servers.dat中记录storage server相关信息,字段依次为: 1. group_name:所属组名 2. ip_addr:ip地址 3. status:状态 4. sync_src_ip_addr:向该storage server同步已有数据文件的源服务器 5. sync_until_timestamp:同步已有数据文件的截至时间(UNIX时间戳) 6. stat.total_upload_count:上传文件次数 7. stat.success_upload_count:成功上传文件次数 8. stat.total_set_meta_count:更改meta data次数 9. stat.success_set_meta_count:成功更改meta data次数 10. stat.total_delete_count:删除文件次数 11. stat.success_delete_count:成功删除文件次数 12. stat.total_download_count:下载文件次数 13. stat.success_download_count:成功下载文件次数 14. stat.total_get_meta_count:获取meta data次数 15. stat.success_get_meta_count:成功获取meta data次数 16. stat.last_source_update:最近一次源头更新时间(更新操作来自客户端) 17. stat.last_sync_update:最近一次同步更新时间(更新操作来自其他storage server的同步) # max concurrent connections this server supported # max_connections worker threads start when this service startup max_connections=256 # 系统提供服务时的最大连接数。对于V1.x,因一个连接由一个线程服务,也就是工作线程数。 # 对于V2.x,最大连接数和工作线程数没有任何关系 # work thread count, should <= max_connections # default value is 4 # since V2.00 # V2.0引入的这个参数,工作线程数,通常设置为CPU数 work_threads=4 # the method of selecting group to upload files # 0: round robin # 1: specify group # 2: load balance, select the max free space group to upload file store_lookup=2 # 上传组(卷) 的方式 0:轮询方式 1: 指定组 2: 平衡负载(选择最大剩余空间的组(卷)上传) # 这里如果在应用层指定了上传到一个固定组,那么这个参数被绕过 # which group to upload file # when store_lookup set to 1, must set store_group to the group name store_group=group2 # 当上一个参数设定为1 时 (store_lookup=1,即指定组名时),必须设置本参数为系统中存在的一个组名。如果选择其他的上传方式,这个参数就没有效了。 # which storage server to upload file # 0: round robin (default) # 1: the first server order by ip address # 2: the first server order by priority (the minimal) store_server=0 # 选择哪个storage server 进行上传操作(一个文件被上传后,这个storage server就相当于这个文件的storage server源,会对同组的storage server推送这个文件达到同步效果) # 0: 轮询方式 # 1: 根据ip 地址进行排序选择第一个服务器(IP地址最小者) # 2: 根据优先级进行排序(上传优先级由storage server来设置,参数名为upload_priority) # which path(means disk or mount point) of the storage server to upload file # 0: round robin # 2: load balance, select the max free space path to upload file store_path=0 # 选择storage server 中的哪个目录进行上传。storage server可以有多个存放文件的base path(可以理解为多个磁盘)。 # 0: 轮流方式,多个目录依次存放文件 # 2: 选择剩余空间最大的目录存放文件(注意:剩余磁盘空间是动态的,因此存储到的目录或磁盘可能也是变化的) # which storage server to download file # 0: round robin (default) # 1: the source storage server which the current file uploaded to download_server=0 # 选择哪个 storage server 作为下载服务器 # 0: 轮询方式,可以下载当前文件的任一storage server # 1: 哪个为源storage server 就用哪一个 (前面说过了这个storage server源 是怎样产生的) 就是之前上传到哪个storage server服务器就是哪个了 # reserved storage space for system or other applications. # if the free(available) space of any stoarge server in # a group <= reserved_storage_space, # no file can be uploaded to this group. # bytes unit can be one of follows: ### G or g for gigabyte(GB) ### M or m for megabyte(MB) ### K or k for kilobyte(KB) ### no unit for byte(B) ### XX.XX% as ratio such as reserved_storage_space = 10% reserved_storage_space = 10% # storage server 上保留的空间,保证系统或其他应用需求空间。可以用绝对值或者百分比(V4开始支持百分比方式)。 #(指出 如果同组的服务器的硬盘大小一样,以最小的为准,也就是只要同组中有一台服务器达到这个标准了,这个标准就生效,原因就是因为他们进行备份) #standard log level as syslog, case insensitive, value list: ### emerg for emergency ### alert ### crit for critical ### error ### warn for warning ### notice ### info ### debug log_level=info # 选择日志级别(日志写在哪?看前面的说明了,有目录介绍哦 呵呵) #unix group name to run this program, #not set (empty) means run by the group of current user run_by_group= # 操作系统运行FastDFS的用户组 (不填 就是当前用户组,哪个启动进程就是哪个) #unix username to run this program, #not set (empty) means run by current user run_by_user= # 操作系统运行FastDFS的用户 (不填 就是当前用户,哪个启动进程就是哪个) # allow_hosts can ocur more than once, host can be hostname or ip address, # "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or # host[01-08,20-25].domain.com, for example: # allow_hosts=10.0.1.[1-15,20] # allow_hosts=host[01-08,20-25].domain.com allow_hosts=* # 可以连接到此 tracker server 的ip范围(对所有类型的连接都有影响,包括客户端,storage server) # sync log buff to disk every interval seconds # default value is 10 seconds sync_log_buff_interval = 10 # 同步或刷新日志信息到硬盘的时间间隔,单位为秒 # 注意:tracker server 的日志不是时时写硬盘的,而是先写内存。 # check storage server alive interval check_active_interval = 120 # 检测 storage server 存活的时间隔,单位为秒。 # storage server定期向tracker server 发心跳,如果tracker server在一个check_active_interval内还没有收到storage server的一次心跳,那边将认为该storage server已经下线。所以本参数值必须大于storage server配置的心跳时间间隔。通常配置为storage server心跳时间间隔的2倍或3倍。 # thread stack size, should > 512KB # default value is 1MB thread_stack_size=1MB # 线程栈的大小。FastDFS server端采用了线程方式。更正一下,tracker server线程栈不应小于64KB,不是512KB。 # 线程栈越大,一个线程占用的系统资源就越多。如果要启动更多的线程(V1.x对应的参数为max_connections, V2.0为work_threads),可以适当降低本参数值。 # auto adjust when the ip address of the storage server changed # default value is true storage_ip_changed_auto_adjust=true # 这个参数控制当storage server IP地址改变时,集群是否自动调整。注:只有在storage server进程重启时才完成自动调整。 # storage sync file max delay seconds # default value is 86400 seconds (one day) # since V2.00 storage_sync_file_max_delay = 86400 # V2.0引入的参数。存储服务器之间同步文件的最大延迟时间,缺省为1天。根据实际情况进行调整 # 注:本参数并不影响文件同步过程。本参数仅在下载文件时,判断文件是否已经被同步完成的一个阀值(经验值) # the max time of storage sync a file # default value is 300 seconds # since V2.00 storage_sync_file_max_time = 300 # V2.0引入的参数。存储服务器同步一个文件需要消耗的最大时间,缺省为300s,即5分钟。 # 注:本参数并不影响文件同步过程。本参数仅在下载文件时,作为判断当前文件是否被同步完成的一个阀值(经验值) # if use a trunk file to store several small files # default value is false # since V3.00 use_trunk_file = false # V3.0引入的参数。是否使用小文件合并存储特性,缺省是关闭的。 # the min slot size, should <= 4KB # default value is 256 bytes # since V3.00 slot_min_size = 256 # V3.0引入的参数。 # trunk file分配的最小字节数。比如文件只有16个字节,系统也会分配slot_min_size个字节。 # the max slot size, should > slot_min_size # store the upload file to trunk file when it's size <= this value # default value is 16MB # since V3.00 slot_max_size = 16MB # V3.0引入的参数。 # 只有文件大小<=这个参数值的文件,才会合并存储。如果一个文件的大小大于这个参数值,将直接保存到一个文件中(即不采用合并存储方式)。 # the trunk file size, should >= 4MB # default value is 64MB # since V3.00 trunk_file_size = 64MB # V3.0引入的参数。 # 合并存储的trunk file大小,至少4MB,缺省值是64MB。不建议设置得过大。 # if create trunk file advancely # default value is false trunk_create_file_advance = false # 是否提前创建trunk file。只有当这个参数为true,下面3个以trunk_create_file_打头的参数才有效。 # the time base to create trunk file # the time format: HH:MM # default value is 02:00 trunk_create_file_time_base = 02:00 # 提前创建trunk file的起始时间点(基准时间),02:00表示第一次创建的时间点是凌晨2点。 # the interval of create trunk file, unit: second # default value is 38400 (one day) trunk_create_file_interval = 86400 # 创建trunk file的时间间隔,单位为秒。如果每天只提前创建一次,则设置为86400 # the threshold to create trunk file # when the free trunk file size less than the threshold, will create # the trunk files # default value is 0 trunk_create_file_space_threshold = 20G # 提前创建trunk file时,需要达到的空闲trunk大小 # 比如本参数为20G,而当前空闲trunk为4GB,那么只需要创建16GB的trunk file即可。 # if check trunk space occupying when loading trunk free spaces # the occupied spaces will be ignored # default value is false # since V3.09 # NOTICE: set this parameter to true will slow the loading of trunk spaces # when startup. you should set this parameter to true when neccessary. trunk_init_check_occupying = false #trunk初始化时,是否检查可用空间是否被占用 # if ignore storage_trunk.dat, reload from trunk binlog # default value is false # since V3.10 # set to true once for version upgrade when your version less than V3.10 trunk_init_reload_from_binlog = false # 是否无条件从trunk binlog中加载trunk可用空间信息 # FastDFS缺省是从快照文件storage_trunk.dat中加载trunk可用空间, # 该文件的第一行记录的是trunk binlog的offset,然后从binlog的offset开始加载 # if use storage ID instead of IP address # default value is false # since V4.00 use_storage_id = false # 是否使用server ID作为storage server标识 # specify storage ids filename, can use relative or absolute path # since V4.00 storage_ids_filename = storage_ids.conf # use_storage_id 设置为true,才需要设置本参数 # 在文件中设置组名、server ID和对应的IP地址,参见源码目录下的配置示例:conf/storage_ids.conf # if store slave file use symbol link # default value is false # since V4.01 store_slave_file_use_link = false # 存储从文件是否采用symbol link(符号链接)方式 # 如果设置为true,一个从文件将占用两个文件:原始文件及指向它的符号链接。 # if rotate the error log every day # default value is false # since V4.02 rotate_error_log = false # 是否定期轮转error log,目前仅支持一天轮转一次 # rotate error log time base, time format: Hour:Minute # Hour from 0 to 23, Minute from 0 to 59 # default value is 00:00 # since V4.02 error_log_rotate_time=00:00 # error log定期轮转的时间点,只有当rotate_error_log设置为true时有效 # rotate error log when the log file exceeds this size # 0 means never rotates log file by log file size # default value is 0 # since V4.02 rotate_error_log_size = 0 # error log按大小轮转 # 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中 # 以下是关于http的设置了 默认编译是不生效的 要求更改 #WITH_HTTPD=1 将 注释#去掉 再编译 # 关于http的应用 说实话 不是很了解 没有见到 相关说明 ,望 版主可以完善一下 以下是字面解释了 #HTTP settings http.disabled=false # HTTP服务是否不生效 http.server_port=8080 # HTTP服务端口 #use "#include" directive to include http other settiongs ##include http.conf # 如果加载http.conf的配置文件 去掉第一个# 哈哈 完成了一个 下面是 storage.conf # is this config file disabled # false for enabled # true for disabled disabled=false #同上文了 就不多说了 # the name of the group this storage server belongs to group_name=group1 # 指定 此 storage server 所在 组(卷) # bind an address of this host # empty for bind all addresses of this host bind_addr= # 同上文 # if bind an address of this host when connect to other servers # (this storage server as a client) # true for binding the address configed by above parameter: "bind_addr" # false for binding any address of this host client_bind=true # bind_addr通常是针对server的。当指定bind_addr时,本参数才有效。 # 本storage server作为client连接其他服务器(如tracker server、其他storage server),是否绑定bind_addr。 # the storage server port port=23000 # storage server服务端口 # connect timeout in seconds # default value is 30s connect_timeout=30 #连接超时时间,针对socket套接字函数connect # network timeout in seconds network_timeout=60 # storage server 网络超时时间,单位为秒。发送或接收数据时,如果在超时时间后还不能发送或接收数据,则本次网络通信失败。 # heart beat interval in seconds heart_beat_interval=30 # 心跳间隔时间,单位为秒 (这里是指主动向tracker server 发送心跳) # disk usage report interval in seconds stat_report_interval=60 # storage server向tracker server报告磁盘剩余空间的时间间隔,单位为秒。 # the base path to store data and log files base_path=/home/yuqing/fastdfs # base_path 目录地址,根目录必须存在 子目录会自动生成 (注 :这里不是上传的文件存放的地址,之前是的,在某个版本后更改了) # 目录结构 因为 版主没有更新到 论谈上 这里就不发了 大家可以看一下置顶贴: # max concurrent connections server supported # max_connections worker threads start when this service startup max_connections=256 # 同上文 # work thread count, should <= max_connections # default value is 4 # since V2.00 # V2.0引入的这个参数,工作线程数,通常设置为CPU数 work_threads=4 # the buff size to recv / send data # default value is 64KB # since V2.00 buff_size = 256KB # V2.0引入本参数。设置队列结点的buffer大小。工作队列消耗的内存大小 = buff_size * max_connections # 设置得大一些,系统整体性能会有所提升。 # 消耗的内存请不要超过系统物理内存大小。另外,对于32位系统,请注意使用到的内存不要超过3GB # if read / write file directly # if set to true, open file will add the O_DIRECT flag to avoid file caching # by the file system. be careful to set this parameter. # default value is false disk_rw_direct = false # V2.09引入本参数。设置为true,表示不使用操作系统的文件内容缓冲特性。 # 如果文件数量很多,且访问很分散,可以考虑将本参数设置为true # if disk read / write separated ## false for mixed read and write ## true for separated read and write # default value is true # since V2.00 disk_rw_separated = true # V2.0引入本参数。磁盘IO读写是否分离,缺省是分离的。 # disk reader thread count per store base path # for mixed read / write, this parameter can be 0 # default value is 1 # since V2.00 disk_reader_threads = 1 # V2.0引入本参数。针对单个存储路径的读线程数,缺省值为1。 # 读写分离时,系统中的读线程数 = disk_reader_threads * store_path_count # 读写混合时,系统中的读写线程数 = (disk_reader_threads + disk_writer_threads) * store_path_count # disk writer thread count per store base path # for mixed read / write, this parameter can be 0 # default value is 1 # since V2.00 disk_writer_threads = 1 # V2.0引入本参数。针对单个存储路径的写线程数,缺省值为1。 # 读写分离时,系统中的写线程数 = disk_writer_threads * store_path_count # 读写混合时,系统中的读写线程数 = (disk_reader_threads + disk_writer_threads) * store_path_count # when no entry to sync, try read binlog again after X milliseconds # 0 for try again immediately (not need to wait) sync_wait_msec=200 # 同步文件时,如果从binlog中没有读到要同步的文件,休眠N毫秒后重新读取。0表示不休眠,立即再次尝试读取。 # 出于CPU消耗考虑,不建议设置为0。如何希望同步尽可能快一些,可以将本参数设置得小一些,比如设置为10ms # after sync a file, usleep milliseconds # 0 for sync successively (never call usleep) sync_interval=0 # 同步上一个文件后,再同步下一个文件的时间间隔,单位为毫秒,0表示不休眠,直接同步下一个文件。 # sync start time of a day, time format: Hour:Minute # Hour from 0 to 23, Minute from 0 to 59 sync_start_time=00:00 # sync end time of a day, time format: Hour:Minute # Hour from 0 to 23, Minute from 0 to 59 sync_end_time=23:59 # 上面二个一起解释。允许系统同步的时间段 (默认是全天) 。一般用于避免高峰同步产生一些问题而设定,相信sa都会明白 # write to the mark file after sync N files # default value is 500 write_mark_file_freq=500 # 同步完N个文件后,把storage的mark文件同步到磁盘 # 注:如果mark文件内容没有变化,则不会同步 # path(disk or mount point) count, default value is 1 store_path_count=1 # 存放文件时storage server支持多个路径(例如磁盘)。这里配置存放文件的基路径数目,通常只配一个目录。 # store_path#, based 0, if store_path0 not exists, it's value is base_path # the paths must be exist store_path0=/home/yuqing/fastdfs #store_path1=/home/yuqing/fastdfs2 # 逐一配置store_path个路径,索引号基于0。注意配置方法后面有0,1,2 ......,需要配置0到store_path - 1。 # 如果不配置base_path0,那边它就和base_path对应的路径一样。 # subdir_count * subdir_count directories will be auto created under each # store_path (disk), value can be 1 to 256, default value is 256 subdir_count_per_path=256 # FastDFS存储文件时,采用了两级目录。这里配置存放文件的目录个数 (系统的存储机制,大家看看文件存储的目录就知道了) # 如果本参数只为N(如:256),那么storage server在初次运行时,会自动创建 N * N 个存放文件的子目录。 # tracker_server can ocur more than once, and tracker_server format is # "host:port", host can be hostname or ip address tracker_server=10.62.164.84:22122 tracker_server=10.62.245.170:22122 # tracker_server 的列表 要写端口的哦 (再次提醒是主动连接tracker_server ) # 有多个tracker server时,每个tracker server写一行 #standard log level as syslog, case insensitive, value list: ### emerg for emergency ### alert ### crit for critical ### error ### warn for warning ### notice ### info ### debug log_level=info # 日志级别不多说 #unix group name to run this program, #not set (empty) means run by the group of current user run_by_group= # 同上文了 #unix username to run this program, #not set (empty) means run by current user run_by_user= # 同上文了 (提醒注意权限 如果和 webserver不搭 可以会产生错误 哦) # allow_hosts can ocur more than once, host can be hostname or ip address, # "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or # host[01-08,20-25].domain.com, for example: # allow_hosts=10.0.1.[1-15,20] # allow_hosts=host[01-08,20-25].domain.com allow_hosts=* # 允许连接本storage server的IP地址列表 (不包括自带HTTP服务的所有连接) # 可以配置多行,每行都会起作用 # the mode of the files distributed to the data path # 0: round robin(default) # 1: random, distributted by hash code file_distribute_path_mode=0 # 文件在data目录下分散存储策略。 # 0: 轮流存放,在一个目录下存储设置的文件数后(参数file_distribute_rotate_count中设置文件数),使用下一个目录进行存储。 # 1: 随机存储,根据文件名对应的hash code来分散存储。 # valid when file_distribute_to_path is set to 0 (round robin), # when the written file count reaches this number, then rotate to next path # default value is 100 file_distribute_rotate_count=100 # 当上面的参数file_distribute_path_mode配置为0(轮流存放方式)时,本参数有效。 # 当一个目录下的文件存放的文件数达到本参数值时,后续上传的文件存储到下一个目录中。 # call fsync to disk when write big file # 0: never call fsync # other: call fsync when written bytes >= this bytes # default value is 0 (never call fsync) fsync_after_written_bytes=0 # 当写入大文件时,每写入N个字节,调用一次系统函数fsync将内容强行同步到硬盘。0表示从不调用fsync # sync log buff to disk every interval seconds # default value is 10 seconds sync_log_buff_interval=10 # 同步或刷新日志信息到硬盘的时间间隔,单位为秒 # 注意:storage server 的日志信息不是时时写硬盘的,而是先写内存。 # sync binlog buff / cache to disk every interval seconds # this parameter is valid when write_to_binlog set to 1 # default value is 60 seconds sync_binlog_buff_interval=60 # 同步binglog(更新操作日志)到硬盘的时间间隔,单位为秒 # 本参数会影响新上传文件同步延迟时间 # sync storage stat info to disk every interval seconds # default value is 300 seconds sync_stat_file_interval=300 # 把storage的stat文件同步到磁盘的时间间隔,单位为秒。 # 注:如果stat文件内容没有变化,不会进行同步 # thread stack size, should >= 512KB # default value is 512KB thread_stack_size=512KB # 线程栈的大小。FastDFS server端采用了线程方式。 # 对于V1.x,storage server线程栈不应小于512KB;对于V2.0,线程栈大于等于128KB即可。 # 线程栈越大,一个线程占用的系统资源就越多。 # 对于V1.x,如果要启动更多的线程(max_connections),可以适当降低本参数值。 # the priority as a source server for uploading file. # the lower this value, the higher its uploading priority. # default value is 10 upload_priority=10 # 本storage server作为源服务器,上传文件的优先级,可以为负数。值越小,优先级越高。这里就和 tracker.conf 中store_server= 2时的配置相对应了 # if check file duplicate, when set to true, use FastDHT to store file indexes # 1 or yes: need check # 0 or no: do not check # default value is 0 check_file_duplicate=0 # 是否检测上传文件已经存在。如果已经存在,则不存在文件内容,建立一个符号链接以节省磁盘空间。 # 这个应用要配合FastDHT 使用,所以打开前要先安装FastDHT # 1或yes 是检测,0或no 是不检测 # file signature method for check file duplicate ## hash: four 32 bits hash code ## md5: MD5 signature # default value is hash # since V4.01 file_signature_method=hash # 文件去重时,文件内容的签名方式: ## hash: 4个hash code ## md5:MD5 # namespace for storing file indexes (key-value pairs) # this item must be set when check_file_duplicate is true / on key_namespace=FastDFS # 当上个参数设定为1 或 yes时 (true/on也是可以的) , 在FastDHT中的命名空间。 # set keep_alive to 1 to enable persistent connection with FastDHT servers # default value is 0 (short connection) keep_alive=0 # 与FastDHT servers 的连接方式 (是否为持久连接) ,默认是0(短连接方式)。可以考虑使用长连接,这要看FastDHT server的连接数是否够用。 # 下面是关于FastDHT servers 的设定 需要对FastDHT servers 有所了解,这里只说字面意思了 # you can use "#include filename" (not include double quotes) directive to # load FastDHT server list, when the filename is a relative path such as # pure filename, the base path is the base path of current/this config file. # must set FastDHT server list when check_file_duplicate is true / on # please see INSTALL of FastDHT for detail ##include /home/yuqing/fastdht/conf/fdht_servers.conf # 可以通过 #include filename 方式来加载 FastDHT servers 的配置,装上FastDHT就知道该如何配置啦。 # 同样要求 check_file_duplicate=1 时才有用,不然系统会忽略 # fdht_servers.conf 记载的是 FastDHT servers 列表 # if log to access log # default value is false # since V4.00 use_access_log = false # 是否将文件操作记录到access log # if rotate the access log every day # default value is false # since V4.00 rotate_access_log = false # 是否定期轮转access log,目前仅支持一天轮转一次 # rotate access log time base, time format: Hour:Minute # Hour from 0 to 23, Minute from 0 to 59 # default value is 00:00 # since V4.00 access_log_rotate_time=00:00 # access log定期轮转的时间点,只有当rotate_access_log设置为true时有效 # if rotate the error log every day # default value is false # since V4.02 rotate_error_log = false # 是否定期轮转error log,目前仅支持一天轮转一次 # rotate error log time base, time format: Hour:Minute # Hour from 0 to 23, Minute from 0 to 59 # default value is 00:00 # since V4.02 error_log_rotate_time=00:00 # error log定期轮转的时间点,只有当rotate_error_log设置为true时有效 # rotate access log when the log file exceeds this size # 0 means never rotates log file by log file size # default value is 0 # since V4.02 rotate_access_log_size = 0 # access log按文件大小轮转 # 设置为0表示不按文件大小轮转,否则当access log达到该大小,就会轮转到新文件中 # rotate error log when the log file exceeds this size # 0 means never rotates log file by log file size # default value is 0 # since V4.02 rotate_error_log_size = 0 # error log按文件大小轮转 # 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中 # if skip the invalid record when sync file # default value is false # since V4.02 file_sync_skip_invalid_record=false # 文件同步的时候,是否忽略无效的binlog记录 下面是http的配置了。如果系统较大,这个服务有可能支持不了,可以自行换一个webserver,我喜欢lighttpd,当然ng也很好了。具体不说明了。相应这一块的说明大家都懂,不明白见上文。 #HTTP settings http.disabled=false # the port of the web server on this storage server http.server_port=8888 http.trunk_size=256KB # http.trunk_size表示读取文件内容的buffer大小(一次读取的文件内容大小),也就是回复给HTTP client的块大小。 # use the ip address of this storage server if domain_name is empty, # else this domain name will ocur in the url redirected by the tracker server http.domain_name= # storage server上web server域名,通常仅针对单独部署的web server。这样URL中就可以通过域名方式来访问storage server上的文件了, # 这个参数为空就是IP地址的方式。 #use "#include" directive to include HTTP other settiongs ##include http.conf |
- 浏览: 753152 次
- 性别:
- 来自: 北京
文章分类
最新评论
-
萨琳娜啊:
Java读源码之Netty深入剖析网盘地址:https://p ...
使用JAVA操作netty框架 -
小灯笼:
Netty源码剖析视频教程网盘地址:https://pan.b ...
使用JAVA操作netty框架 -
luckywind:
请问怎么下载那个svn上的源码啊?
本地调试Hbase源码详解 -
heng123:
Netty视频教程https://www.douban.com ...
使用JAVA操作netty框架 -
kongdong88:
Netty简单应用与线上服 ...
使用JAVA操作netty框架
发表评论
-
深入淘宝Diamond之客户端架构解析
2016-04-12 23:11 2187说明:本文不 ... -
Redis Lua脚本使用(资料备份)不是博客
2016-01-12 22:49 1000./redis-cli EVAL "$(cat / ... -
Twemproxy测试用例以及压测结果
2016-01-12 22:15 9231、前端使用 Twemproxy 做代理,后端的 Redi ... -
【转】Scala从零开始:使用Intellij IDEA写hello world
2015-07-12 14:45 1523在之前的文章中,我们介绍了如何使用Scala IDE也就是e ... -
【转】分布式锁的实现
2015-07-01 11:03 1194在很多互联网产品应 ... -
Nginx常见的优化策略
2015-04-15 14:54 1083常用优化要点 nginx使用的是固定数量的workers ... -
探讨如何减少Linux服务器TIME_WAIT过多的问题
2015-03-06 15:09 2994今天早上一上班,有同事就反映公司好几个网站都 ... -
【转】通过《淘宝这十年》总结的脑图
2014-03-13 15:47 772通过读淘宝这十年总结的脑图 -
hadoop1.2.1+hbase集群详解
2014-03-10 18:54 2076最近我由于工作原因,我要搭建一套hadoo ... -
LinkedHashMap实现最简单的LRU算法
2013-11-16 19:27 1505LRU是Least Recently Used 近期最少使 ... -
Nginx+Tomcat+FastDFS文件下载模块讲解
2013-10-28 20:03 11074本文主要以示例的方式讲解,如何简单快速的搭建一 ... -
hadoop 命令手册
2013-10-08 15:11 887hadoop 命令手册 概述 所有的hadoop ... -
Hadoop hdfs Shell命令 HDFS操作命令
2013-10-08 12:45 1085调用文件系统(FS)Shell命令应使用 bi ... -
hbase性能测试对比分析
2013-09-30 13:10 12663数据库读写性能分析 1、 单机类比集群测试 测试环境: ... -
如何安装FastDFS
2012-11-14 10:31 18263目前FastDFS支持类Unix系统 ,在Linux ... -
五种基本memcached 命令
2012-11-14 10:27 1126五种基本memcached 命令(执行最简单的操作): s ... -
urlRewriteFilter来实现url的美化
2012-11-12 09:39 1051在appfuse的web.xml声明文件中有下面的类似声明: ... -
利用JAVA操作Redis
2012-05-14 11:30 44981import org.junit.After; import ... -
NOSQL的总结感想
2012-05-14 09:21 2256NoSQL主要用于解决以下几种问题 少量数据存储,高速读写 ... -
Redis配置文件说明
2012-03-28 14:24 1117配置文件参数说明: 1. Redis默认不是以守护进 ...
相关推荐
《FastDFS配置文件详解》 FastDFS是一款开源的高性能、轻量级的分布式文件系统,主要解决大容量存储和负载均衡的问题。配置文件是FastDFS系统运行的核心,它定义了系统的运行方式和行为。本文将深入解析FastDFS的...
《FastDFS Storage端配置文件详解及启动注意事项》 FastDFS是一款开源的高性能、轻量级的分布式文件系统,主要用于解决大容量存储和负载均衡的问题。本文将深入解析FastDFS的Storage端配置文件`storage.conf`,并...
《FastDFS Tracker端配置文件详解及启动注意事项》 FastDFS是一款开源的高性能、轻量级的分布式文件系统,主要用于解决大容量存储和负载均衡的问题。它由Tracker服务器和Storage服务器两部分组成,Tracker负责调度...
下面将详细解释FastDFS的三个主要配置文件:`storage.conf`、`tracker.conf`和`client.conf`。 **1. `storage.conf`** `storage.conf`是FastDFS中存储节点的配置文件,用于设置存储服务器的相关参数。以下是一些...
《FastDFS配置文件详解》 FastDFS是一款开源的高性能、轻量级的分布式文件系统,主要解决大容量存储和负载均衡的问题。本文将详细解析FastDFS的配置文件,特别是`tracker.conf`和与存储服务器相关的数据文件`...
现在,我们将深入探讨如何配置FastDFS集群,以及相关配置文件的作用。 首先,我们来看标题中的“FastDFS集群配置文件”。一个FastDFS集群通常包括Tracker服务器和Storage服务器。Tracker服务器负责调度任务,...
FastDFS配置文件详解 FastDFS是一个开源的分布式文件系统,用于解决大规模文件存储和管理问题。 FastDFS的配置文件是tracker.conf,下面是对tracker.conf文件的详细解释。 首先是disabled配置项,这个配置项决定了...
在Nginx的配置文件`nginx.conf`中添加FastDFS模块的配置,包括FastDFS的tracker服务器地址、连接超时时间等。 6. **创建FastDFS需要的文件**:根据`描述`中的提示,可能需要创建一些特定的目录,例如日志文件目录、...
1. **client.conf**:这是FastDFS客户端的配置文件,主要用于设置客户端连接到Tracker Server的参数,如服务器地址、端口、超时时间、重试次数等。客户端通过这个配置文件与FastDFS系统进行交互,上传或下载文件。 ...
fastDFS配置文件,主要修改其中的Service就可以了,其他可默认。
FastDFS客户端配置文件,主要是为了配置FastDFS服务器的ip地址
1. `tracker.conf`:Tracker服务器的配置文件,用于管理整个FastDFS集群的元数据,如Group信息、存储节点状态等。 2. `storage.conf`:Storage服务器的配置文件,负责文件的实际存储、上传和下载操作。 3. `client....
《FastDFS集群与Http访问部署详解》涉及到的关键技术主要包括FastDFS分布式文件系统、Nginx反向代理服务器以及集群和HTTP访问的配置。FastDFS是一个开源的高性能、轻量级的分布式文件系统,主要解决大容量存储和负载...
### FastDFS安装与配置详解 #### 一、FastDFS简介 FastDFS是一个高效的分布式文件系统,主要用于海量数据存储,能够实现文件的快速存取。它由淘宝的技术团队开发,主要适用于互联网环境下大流量高并发的场景。...
【FastDFS安装详解】 FastDFS是一款开源的高性能、轻量级的分布式文件系统,它对文件进行管理,包括文件存储、文件同步、文件访问(文件上传、文件下载)等功能,解决了大容量存储和负载均衡的问题。在本安装教程中...
1. **storage.conf**:这是FastDFS的存储节点配置文件。在这个文件中,你需要设置存储节点的基本参数,如数据存储路径、组名、连接Tracker服务器的IP和端口等。例如,`base_path`参数指定FastDFS的数据存储目录,`...
FastDFS配置详解 FastDFS是一款开源的分布式文件系统,提供了高性能、可靠的文件存储和管理解决方案。在FastDFS中,tracker.conf文件是核心配置文件,用于配置tracker server的行为。在本文中,我们将对tracker....
### fastDfs的详解与安装 #### 一、概述 FastDFS是一款开源的分布式文件系统,主要用于解决海量数据存储的问题,特别适用于图片、视频等大文件的存储与管理。它支持高并发操作,并且能够自动负载均衡。在本文中,...