`

core-default配置说明等

阅读更多

为了以后查找方便,故将配置说明等列在这里

Xml代码   收藏代码
  1. <? xml   version = "1.0" ?>   
  2. <? xml-stylesheet   type = "text/xsl"   href = "configuration.xsl" ?>   
  3.   
  4. <!-- Do not modify this file directly.  Instead, copy entries that you -->   
  5. <!-- wish to modify from this file into core-site.xml and change them -->   
  6. <!-- there.  If core-site.xml does not already exist, create it.      -->   
  7.   
  8. < configuration >   
  9.   
  10. <!--- global properties -->   
  11.   
  12. < property >   
  13.   < name > hadoop.tmp.dir </ name >   
  14.   < value > /tmp/hadoop-${user.name} </ value >   
  15.   < description > A base for other temporary directories. </ description >   
  16. </ property >   
  17.   
  18. < property >   
  19.   < name > hadoop.native.lib </ name >   
  20.   < value > true </ value >   
  21.   < description > Should native hadoop libraries, if present, be used. </ description >   
  22. </ property >   
  23.   
  24. < property >   
  25.   < name > hadoop.http.filter.initializers </ name >   
  26.   < value > </ value >   
  27.   < description > A comma separated list of class names. Each class in the list   
  28.   must extend org.apache.hadoop.http.FilterInitializer. The corresponding   
  29.   Filter will be initialized. Then, the Filter will be applied to all user   
  30.   facing jsp and servlet web pages.  The ordering of the list defines the   
  31.   ordering of the filters.</ description >   
  32. </ property >   
  33.   
  34. < property >   
  35.   < name > hadoop.security.authorization </ name >   
  36.   < value > false </ value >   
  37.   < description > Is service-level authorization enabled? </ description >   
  38. </ property >   
  39.   
  40. <!--- logging properties -->   
  41.   
  42. < property >   
  43.   < name > hadoop.logfile.size </ name >   
  44.   < value > 10000000 </ value >   
  45.   < description > The max size of each log file </ description >   
  46. </ property >   
  47.   
  48. < property >   
  49.   < name > hadoop.logfile.count </ name >   
  50.   < value > 10 </ value >   
  51.   < description > The max number of log files </ description >   
  52. </ property >   
  53.   
  54. <!-- i/o properties -->   
  55. < property >   
  56.   < name > io.file.buffer.size </ name >   
  57.   < value > 4096 </ value >   
  58.   < description > The size of buffer for use in sequence files.  
  59.   The size of this buffer should probably be a multiple of hardware  
  60.   page size (4096 on Intel x86), and it determines how much data is  
  61.   buffered during read and write operations.</ description >   
  62. </ property >   
  63.     
  64. < property >   
  65.   < name > io.bytes.per.checksum </ name >   
  66.   < value > 512 </ value >   
  67.   < description > The number of bytes per checksum.  Must not be larger than  
  68.   io.file.buffer.size.</ description >   
  69. </ property >   
  70.   
  71. < property >   
  72.   < name > io.skip.checksum.errors </ name >   
  73.   < value > false </ value >   
  74.   < description > If true, when a checksum error is encountered while  
  75.   reading a sequence file, entries are skipped, instead of throwing an  
  76.   exception.</ description >   
  77. </ property >   
  78.   
  79. < property >   
  80.   < name > io.compression.codecs </ name >   
  81.   < value > org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.BZip2Codec </ value >   
  82.   < description > A list of the compression codec classes that can be used   
  83.                for compression/decompression.</ description >   
  84. </ property >   
  85.   
  86. < property >   
  87.   < name > io.serializations </ name >   
  88.   < value > org.apache.hadoop.io.serializer.WritableSerialization </ value >   
  89.   < description > A list of serialization classes that can be used for  
  90.   obtaining serializers and deserializers.</ description >   
  91. </ property >   
  92.   
  93. <!-- file system properties -->   
  94.   
  95. < property >   
  96.   < name > fs.default.name </ name >   
  97.   < value > file:/// </ value >   
  98.   < description > The name of the default file system.  A URI whose  
  99.   scheme and authority determine the FileSystem implementation.  The  
  100.   uri's scheme determines the config property (fs.SCHEME.impl) naming  
  101.   the FileSystem implementation class.  The uri's authority is used to  
  102.   determine the host, port, etc. for a filesystem.</ description >   
  103. </ property >   
  104.   
  105. < property >   
  106.   < name > fs.trash.interval </ name >   
  107.   < value > 0 </ value >   
  108.   < description > Number of minutes between trash checkpoints.  
  109.   If zero, the trash feature is disabled.  
  110.   </ description >   
  111. </ property >   
  112.   
  113. < property >   
  114.   < name > fs.file.impl </ name >   
  115.   < value > org.apache.hadoop.fs.LocalFileSystem </ value >   
  116.   < description > The FileSystem for file: uris. </ description >   
  117. </ property >   
  118.   
  119. < property >   
  120.   < name > fs.hdfs.impl </ name >   
  121.   < value > org.apache.hadoop.hdfs.DistributedFileSystem </ value >   
  122.   < description > The FileSystem for hdfs: uris. </ description >   
  123. </ property >   
  124.   
  125. < property >   
  126.   < name > fs.s3.impl </ name >   
  127.   < value > org.apache.hadoop.fs.s3.S3FileSystem </ value >   
  128.   < description > The FileSystem for s3: uris. </ description >   
  129. </ property >   
  130.   
  131. < property >   
  132.   < name > fs.s3n.impl </ name >   
  133.   < value > org.apache.hadoop.fs.s3native.NativeS3FileSystem </ value >   
  134.   < description > The FileSystem for s3n: (Native S3) uris. </ description >   
  135. </ property >   
  136.   
  137. < property >   
  138.   < name > fs.kfs.impl </ name >   
  139.   < value > org.apache.hadoop.fs.kfs.KosmosFileSystem </ value >   
  140.   < description > The FileSystem for kfs: uris. </ description >   
  141. </ property >   
  142.   
  143. < property >   
  144.   < name > fs.hftp.impl </ name >   
  145.   < value > org.apache.hadoop.hdfs.HftpFileSystem </ value >   
  146. </ property >   
  147.   
  148. < property >   
  149.   < name > fs.hsftp.impl </ name >   
  150.   < value > org.apache.hadoop.hdfs.HsftpFileSystem </ value >   
  151. </ property >   
  152.   
  153. < property >   
  154.   < name > fs.ftp.impl </ name >   
  155.   < value > org.apache.hadoop.fs.ftp.FTPFileSystem </ value >   
  156.   < description > The FileSystem for ftp: uris. </ description >   
  157. </ property >   
  158.   
  159. < property >   
  160.   < name > fs.ramfs.impl </ name >   
  161.   < value > org.apache.hadoop.fs.InMemoryFileSystem </ value >   
  162.   < description > The FileSystem for ramfs: uris. </ description >   
  163. </ property >   
  164.   
  165. < property >   
  166.   < name > fs.har.impl </ name >   
  167.   < value > org.apache.hadoop.fs.HarFileSystem </ value >   
  168.   < description > The filesystem for Hadoop archives.  </ description >   
  169. </ property >   
  170.   
  171. < property >   
  172.   < name > fs.har.impl.disable.cache </ name >   
  173.   < value > true </ value >   
  174.   < description > Don't cache 'har' filesystem instances. </ description >   
  175. </ property >   
  176.   
  177. < property >   
  178.   < name > fs.checkpoint.dir </ name >   
  179.   < value > ${hadoop.tmp.dir}/dfs/namesecondary </ value >   
  180.   < description > Determines where on the local filesystem the DFS secondary  
  181.       name node should store the temporary images to merge.  
  182.       If this is a comma-delimited list of directories then the image is  
  183.       replicated in all of the directories for redundancy.  
  184.   </ description >   
  185. </ property >   
  186.   
  187. < property >   
  188.   < name > fs.checkpoint.edits.dir </ name >   
  189.   < value > ${fs.checkpoint.dir} </ value >   
  190.   < description > Determines where on the local filesystem the DFS secondary  
  191.       name node should store the temporary edits to merge.  
  192.       If this is a comma-delimited list of directoires then teh edits is  
  193.       replicated in all of the directoires for redundancy.  
  194.       Default value is same as fs.checkpoint.dir  
  195.   </ description >   
  196. </ property >   
  197.   
  198. < property >   
  199.   < name > fs.checkpoint.period </ name >   
  200.   < value > 3600 </ value >   
  201.   < description > The number of seconds between two periodic checkpoints.  
  202.   </ description >   
  203. </ property >   
  204.   
  205. < property >   
  206.   < name > fs.checkpoint.size </ name >   
  207.   < value > 67108864 </ value >   
  208.   < description > The size of the current edit log (in bytes) that triggers  
  209.        a periodic checkpoint even if the fs.checkpoint.period hasn't expired.  
  210.   </ description >   
  211. </ property >   
  212.   
  213.   
  214.   
  215. < property >   
  216.   < name > fs.s3.block.size </ name >   
  217.   < value > 67108864 </ value >   
  218.   < description > Block size to use when writing files to S3. </ description >   
  219. </ property >   
  220.   
  221. < property >   
  222.   < name > fs.s3.buffer.dir </ name >   
  223.   < value > ${hadoop.tmp.dir}/s3 </ value >   
  224.   < description > Determines where on the local filesystem the S3 filesystem  
  225.   should store files before sending them to S3  
  226.   (or after retrieving them from S3).  
  227.   </ description >   
  228. </ property >   
  229.   
  230. < property >   
  231.   < name > fs.s3.maxRetries </ name >   
  232.   < value > 4 </ value >   
  233.   < description > The maximum number of retries for reading or writing files to S3,   
  234.   before we signal failure to the application.  
  235.   </ description >   
  236. </ property >   
  237.   
  238. < property >   
  239.   < name > fs.s3.sleepTimeSeconds </ name >   
  240.   < value > 10 </ value >   
  241.   < description > The number of seconds to sleep between each S3 retry.  
  242.   </ description >   
  243. </ property >   
  244.   
  245.   
  246. < property >   
  247.   < name > local.cache.size </ name >   
  248.   < value > 10737418240 </ value >   
  249.   < description > The limit on the size of cache you want to keep, set by default  
  250.   to 10GB. This will act as a soft limit on the cache directory for out of band data.  
  251.   </ description >   
  252. </ property >   
  253.               
  254. < property >   
  255.   < name > io.seqfile.compress.blocksize </ name >   
  256.   < value > 1000000 </ value >   
  257.   < description > The minimum block size for compression in block compressed   
  258.           SequenceFiles.  
  259.   </ description >   
  260. </ property >   
  261.   
  262. < property >   
  263.   < name > io.seqfile.lazydecompress </ name >   
  264.   < value > true </ value >   
  265.   < description > Should values of block-compressed SequenceFiles be decompressed  
  266.           only when necessary.  
  267.   </ description >   
  268. </ property >   
  269.   
  270. < property >   
  271.   < name > io.seqfile.sorter.recordlimit </ name >   
  272.   < value > 1000000 </ value >   
  273.   < description > The limit on number of records to be kept in memory in a spill   
  274.           in SequenceFiles.Sorter  
  275.   </ description >   
  276. </ property >   
  277.   
  278.  < property >   
  279.   < name > io.mapfile.bloom.size </ name >   
  280.   < value > 1048576 </ value >   
  281.   < description > The size of BloomFilter-s used in BloomMapFile. Each time this many  
  282.   keys is appended the next BloomFilter will be created (inside a DynamicBloomFilter).  
  283.   Larger values minimize the number of filters, which slightly increases the performance,  
  284.   but may waste too much space if the total number of keys is usually much smaller  
  285.   than this number.  
  286.   </ description >   
  287. </ property >   
  288.   
  289. < property >   
  290.   < name > io.mapfile.bloom.error.rate </ name >   
  291.   < value > 0.005 </ value >   
  292.   < description > The rate of false positives in BloomFilter-s used in BloomMapFile.  
  293.   As this value decreases, the size of BloomFilter-s increases exponentially. This  
  294.   value is the probability of encountering false positives (default is 0.5%).  
  295.   </ description >   
  296. </ property >   
  297.   
  298. < property >   
  299.   < name > hadoop.util.hash.type </ name >   
  300.   < value > murmur </ value >   
  301.   < description > The default implementation of Hash. Currently this can take one of the  
  302.   two values: 'murmur' to select MurmurHash and 'jenkins' to select JenkinsHash.  
  303.   </ description >   
  304. </ property >   
  305.   
  306.   
  307. <!-- ipc properties -->   
  308.   
  309. < property >   
  310.   < name > ipc.client.idlethreshold </ name >   
  311.   < value > 4000 </ value >   
  312.   < description > Defines the threshold number of connections after which  
  313.                connections will be inspected for idleness.  
  314.   </ description >   
  315. </ property >   
  316.   
  317. < property >   
  318.   < name > ipc.client.kill.max </ name >   
  319.   < value > 10 </ value >   
  320.   < description > Defines the maximum number of clients to disconnect in one go.  
  321.   </ description >   
  322. </ property >   
  323.   
  324. < property >   
  325.   < name > ipc.client.connection.maxidletime </ name >   
  326.   < value > 10000 </ value >   
  327.   < description > The maximum time in msec after which a client will bring down the  
  328.                connection to the server.  
  329.   </ description >   
  330. </ property >   
  331.   
  332. < property >   
  333.   < name > ipc.client.connect.max.retries </ name >   
  334.   < value > 10 </ value >   
  335.   < description > Indicates the number of retries a client will make to establish  
  336.                a server connection.  
  337.   </ description >   
  338. </ property >   
  339.   
  340. < property >   
  341.   < name > ipc.server.listen.queue.size </ name >   
  342.   < value > 128 </ value >   
  343.   < description > Indicates the length of the listen queue for servers accepting  
  344.                client connections.  
  345.   </ description >   
  346. </ property >   
  347.   
  348. < property >   
  349.   < name > ipc.server.tcpnodelay </ name >   
  350.   < value > false </ value >   
  351.   < description > Turn on/off Nagle's algorithm for the TCP socket connection on   
  352.   the server. Setting to true disables the algorithm and may decrease latency  
  353.   with a cost of more/smaller packets.   
  354.   </ description >   
  355. </ property >   
  356.   
  357. < property >   
  358.   < name > ipc.client.tcpnodelay </ name >   
  359.   < value > false </ value >   
  360.   < description > Turn on/off Nagle's algorithm for the TCP socket connection on   
  361.   the client. Setting to true disables the algorithm and may decrease latency  
  362.   with a cost of more/smaller packets.   
  363.   </ description >   
  364. </ property >   
  365.   
  366.   
  367. <!-- Web Interface Configuration -->   
  368.   
  369. < property >   
  370.   < name > webinterface.private.actions </ name >   
  371.   < value > false </ value >   
  372.   < description >  If set to true, the web interfaces of JT and NN may contain   
  373.                 actions, such as kill job, delete file, etc., that should   
  374.                 not be exposed to public. Enable this option if the interfaces   
  375.                 are only reachable by those who have the right authorization.  
  376.   </ description >   
  377. </ property >   
  378.   
  379. <!-- Proxy Configuration -->   
  380.   
  381. < property >   
  382.   < name > hadoop.rpc.socket.factory.class.default </ name >   
  383.   < value > org.apache.hadoop.net.StandardSocketFactory </ value >   
  384.   < description >  Default SocketFactory to use. This parameter is expected to be  
  385.     formatted as "package.FactoryClassName".  
  386.   </ description >   
  387. </ property >   
  388.   
  389. < property >   
  390.   < name > hadoop.rpc.socket.factory.class.ClientProtocol </ name >   
  391.   < value > </ value >   
  392.   < description >  SocketFactory to use to connect to a DFS. If null or empty, use  
  393.     hadoop.rpc.socket.class.default. This socket factory is also used by  
  394.     DFSClient to create sockets to DataNodes.  
  395.   </ description >   
  396. </ property >   
  397.   
  398.   
  399.   
  400. < property >   
  401.   < name > hadoop.socks.server </ name >   
  402.   < value > </ value >   
  403.   < description >  Address (host:port) of the SOCKS server to be used by the  
  404.     SocksSocketFactory.  
  405.   </ description >   
  406. </ property >   
  407.   
  408. <!-- Rack Configuration -->   
  409.   
  410. < property >   
  411.   < name > topology.node.switch.mapping.impl </ name >   
  412.   < value > org.apache.hadoop.net.ScriptBasedMapping </ value >   
  413.   < description >  The default implementation of the DNSToSwitchMapping. It  
  414.     invokes a script specified in topology.script.file.name to resolve  
  415.     node names. If the value for topology.script.file.name is not set, the  
  416.     default value of DEFAULT_RACK is returned for all node names.  
  417.   </ description >   
  418. </ property >   
  419.   
  420. < property >   
  421.   < name > topology.script.file.name </ name >   
  422.   < value > </ value >   
  423.   < description >  The script name that should be invoked to resolve DNS names to  
  424.     NetworkTopology names. Example: the script would take host.foo.bar as an  
  425.     argument, and return /rack1 as the output.  
  426.   </ description >   
  427. </ property >   
  428.   
  429. < property >   
  430.   < name > topology.script.number.args </ name >   
  431.   < value > 100 </ value >   
  432.   < description >  The max number of args that the script configured with   
  433.     topology.script.file.name should be run with. Each arg is an  
  434.     IP address.  
  435.   </ description >   
  436. </ property >   
  437.   
  438.   
  439.   
  440. </ configuration >   

 更多信息请查看 java进阶网 http://www.javady.com

分享到:
评论

相关推荐

    core-site配置文件说明

    除了上述核心配置外,`core-site.xml`还可能包含其他一些与网络通信相关的参数,如安全设置等。这些参数同样对Hadoop集群的性能和安全性有着重要的影响。 #### 四、实例说明 以具体的配置为例,假设我们有一个...

    hadoop配置文件参数详解1

    第一种方法是选择相应版本的 Hadoop,下载解压后,搜索 \*.xml,找到 core-default.xml、hdfs-default.xml 和 mapred-default.xml,这些文件就是默认配置,可以参考这些配置的说明和 key 设置 Hadoop 集群。...

    struts2.5.16升级过程中遇到问题详述

    - **配置说明**:为了确保Struts2.5.16能够正确地初始化并运行,需要在web.xml中配置Struts的过滤器。 ```xml &lt;filter-name&gt;struts2&lt;/filter-name&gt; &lt;filter-class&gt;org.apache.struts2.dispatcher.filter....

    软件项目--配置说明书(模板).docx

    ### 软件项目配置说明书知识点解析 #### 1. 编写目的 该文档的主要目的是为统一用户授权服务提供一套完整的配置指南。这不仅包括了基础的服务配置,还涉及了高级特性的设置方法,旨在帮助开发人员快速理解并正确...

    Hadoop 三个配置文件的参数含义说明

    同时,需要注意的是,随着Hadoop版本的更新,某些默认配置和参数可能会有所变化,因此建议根据实际使用的Hadoop版本查阅相应的默认配置文件,如Apache官网提供的`core-default.xml`、`hdfs-default.xml`和`mapred-...

    hadoop配置属性

    - 方法一:下载与Hadoop版本相对应的Hadoop压缩包,解压后通过搜索*.xml文件,可以找到core-default.xml、hdfs-default.xml和mapred-default.xml,这些文件中包含了默认的配置属性及说明,可以作为设置Hadoop集群时...

    YARN相关配置总结

    - **配置说明**: - **Configuration Files**:根据需要调整`core-site.xml`、`hdfs-site.xml`、`yarn-site.xml` 和 `mapred-site.xml`中的参数。 - **Environment Configuration**:通过`hadoop-env.sh`和`yarn-...

    struts2.0.1-core-api-chm

    6. **Struts2配置**: Struts2的配置文件通常包括struts-default.xml、struts-plugin.xml以及自定义的struts.xml等,它们定义了全局和特定应用的行为,包括Action、Interceptor、Result以及其他组件的配置。...

    Struts2.0配置说明

    ### Struts2.0配置说明 #### 创建第一个Struts2.0项目 在开始之前,我们需要了解Struts2.0框架的基本概念以及如何构建一个基本的Web应用项目。本篇文章将详细阐述创建第一个Struts2.0项目的步骤,并对每个步骤进行...

    nginx优化--pdf说明文档

    - `net.core.wmem_default` 和 `net.core.rmem_default`:调整网络缓冲区大小,适应高并发下的数据传输。 4. **调度器**:根据系统负载情况,选择合适的调度器。如`sysctl -w kernel.sched_latency_ns=50000`,...

    Resin 3.1 配置文件.txt

    ### Resin 3.1 配置文件解析与说明 #### 一、概述 Resin 是一款高性能且功能丰富的 Java 应用服务器和 Web 服务器,由 Caucho Technology 开发。Resin 3.1 版本是该系列中的一个稳定版本,广泛应用于企业级应用...

    大数据运维技术第4章 Hadoop文件参数配置课件.pptx

    - **core-site.xml**:这是集群全局参数的配置文件,用于设定系统级别的参数,比如默认的文件系统(fs.defaultFS)和Hadoop的临时工作目录(hadoop.tmp.dir)。 - **hdfs-site.xml**:此文件专门针对HDFS(Hadoop ...

    struts2的说明文档

    - **其他配置文件**:如velocity.properties、struts-default.vm和struts-plugin.xml,用于特定功能或插件的配置。 4. **集成开发环境支持**: - 在MyEclipse中,为了获取XML(如struts.xml)的代码提示,需要...

    Struts2.2.3 javadoc

    `struts-default.xml`和`struts-plugin.xml`等配置文件定义了全局行为,而`struts.xml`则用于特定应用的配置。 5. **ValueStack**:Struts2使用值栈来管理请求和响应的数据。`...

    hadoop配置.zip

    以下是对配置过程的详细说明: 一、Hadoop HA概述 Hadoop HA主要通过在两个不同的节点上设置NameNode的热备来实现。这两个节点被称为活动NameNode(Active NN)和备用NameNode(Standby NN)。当活动NameNode出现...

Global site tag (gtag.js) - Google Analytics