`
sunasheng
  • 浏览: 122935 次
  • 性别: Icon_minigender_1
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论

Hadoop配置文件表(如需要请下载附件)

阅读更多

 

HDFS        
参数 描述 默认 配置文件 例子值
fs.default.name namenode RPC交互端口 8020 core-site.xml hdfs://master:8020/
dfs.http.address  NameNode web管理端口 50070 hdfs- site.xml 0.0.0.0:50070
dfs.datanode.address datanode 控制端口 50010 hdfs -site.xml  0.0.0.0:50010
dfs.datanode.ipc.address datanode的RPC服务器地址和端口 50020 hdfs-site.xml 0.0.0.0:50020
dfs.datanode.http.address datanode的HTTP服务器和端口 50075 hdfs-site.xml  0.0.0.0:50075
MapReduce        
参数 描述 默认 配置文件 例子值
mapred.job.tracker job-tracker交互端口  8021 mapred-site.xml hdfs://master:8021/
job tracker的web管理端口 50030 mapred-site.xml 0.0.0.0:50030
mapred.task.tracker.http.address task-tracker的HTTP端口 50060 mapred-site.xml 0.0.0.0:50060
其他端口        
参数 描述 默认 配置文件 例子值
dfs.secondary.http.address secondary NameNode web管理端口 50090 hdfs-site.xml 0.0.0.0:50090
core-default.html        
参数名 参数值 参数说明    
hadoop.tmp.dir                      /tmp/hadoop-${user.name}                              临时目录设定    
hadoop.native.lib                   true                                                  使用本地hadoop库标识。    
hadoop.http.filter.initializers                                                           http服务器过滤链设置                             
hadoop.security.group.mapping    org.apache.hadoop.security.ShellBasedUnixGroupsMapping 组内用户的列表的类设定    
hadoop.security.authorization       false                                                 服务端认证开启    
hadoop.security.authentication    simple                                                 无认证或认证设置    
hadoop.security.token.service.use_ip true                                                  是否开启使用IP地址作为连接的开关    
hadoop.logfile.size                 10000000 日志文件最大为10M    
hadoop.logfile.count 10 日志文件数量为10个    
io.file.buffer.size 4096 流文件的缓冲区为4K    
io.bytes.per.checksum 512 校验位数为512字节    
io.skip.checksum.errors false 校验出错后是抛出异常还是略过标识。True则略过。    
io.compression.codecs org.apache.hadoop.io.compress.DefaultCodec,
org.apache.hadoop.io.compress.GzipCodec,
org.apache.hadoop.io.compress.BZip2Codec,
org.apache.hadoop.io.compress.SnappyCodec
压缩和解压的方式设置    
io.serializations org.apache.hadoop.io.serializer.WritableSerialization 序例化和反序列化的类设定    
fs.default.name file:///                                             缺省的文件URI标识设定。    
fs.trash.interval 0 文件废弃标识设定,0为禁止此功能    
fs.file.impl org.apache.hadoop.fs.LocalFileSystem                 本地文件操作类设置    
fs.hdfs.impl org.apache.hadoop.hdfs.DistributedFileSystem         HDFS文件操作类设置    
fs.s3.impl org.apache.hadoop.fs.s3.S3FileSystem                 S3文件操作类设置    
fs.s3n.impl              org.apache.hadoop.fs.s3native.NativeS3FileSystem S3文件本地操作类设置    
fs.kfs.impl              org.apache.hadoop.fs.kfs.KosmosFileSystem KFS文件操作类设置.     
fs.hftp.impl             org.apache.hadoop.hdfs.HftpFileSystem HTTP方式操作文件设置    
fs.hsftp.impl            org.apache.hadoop.hdfs.HsftpFileSystem HTTPS方式操作文件设置    
fs.webhdfs.impl          org.apache.hadoop.hdfs.web.WebHdfsFileSystem WEB方式操作文件类设置    
fs.ftp.impl              org.apache.hadoop.fs.ftp.FTPFileSystem FTP文件操作类设置    
fs.ramfs.impl            org.apache.hadoop.fs.InMemoryFileSystem 内存文件操作类设置    
fs.har.impl              org.apache.hadoop.fs.HarFileSystem 压缩文件操作类设置.    
fs.har.impl.disable.cache true 是否缓存har文件的标识设定    
fs.checkpoint.dir        ${hadoop.tmp.dir}/dfs/namesecondary 备份名称节点的存放目前录设置    
fs.checkpoint.edits.dir      ${fs.checkpoint.dir} 备份名称节点日志文件的存放目前录设置    
fs.checkpoint.period         3600 动态检查的间隔时间设置    
fs.checkpoint.size           67108864 日志文件大小为64M    
fs.s3.block.size             67108864 写S3文件系统的块的大小为64M    
fs.s3.buffer.dir             ${hadoop.tmp.dir}/s3 S3文件数据的本地存放目录    
fs.s3.maxRetries             4 S3文件数据的偿试读写次数    
fs.s3.sleepTimeSeconds       10 S3文件偿试的间隔    
local.cache.size             10737418240 缓存大小设置为10GB    
io.seqfile.compress.blocksize 1000000 压缩流式文件中的最小块数为100万    
io.seqfile.lazydecompress    true 块是否需要压缩标识设定    
io.seqfile.sorter.recordlimit 1000000 内存中排序记录块类最小为100万    
io.mapfile.bloom.size 1048576 BloomMapFiler过滤量为1M    
io.mapfile.bloom.error.rate 0.005      
hadoop.util.hash.type murmur 缺少hash方法为murmur    
ipc.client.idlethreshold 4000 连接数据最小阀值为4000     
ipc.client.kill.max 10 一个客户端连接数最大值为10    
ipc.client.connection.maxidletime 10000 断开与服务器连接的时间最大为10秒    
ipc.client.connect.max.retries 10 建立与服务器连接的重试次数为10次    
ipc.server.listen.queue.size 128 接收客户连接的监听队例的长度为128    
ipc.server.tcpnodelay false 开启或关闭服务器端TCP连接算法    
ipc.client.tcpnodelay false 开启或关闭客户端TCP连接算法    
webinterface.private.actions false Web交互的行为设定
 
   
hadoop.rpc.socket.factory.class.default     org.apache.hadoop.net.StandardSocketFactory 缺省的socket工厂类设置    
hadoop.rpc.socket.factory.class.ClientProtocol   与dfs连接时的缺省socket工厂类    
hadoop.socks.server                             服务端的工厂类缺省设置为SocksSocketFactory.    
topology.node.switch.mapping.impl             org.apache.hadoop.net.ScriptBasedMapping      
topology.script.file.name                            
topology.script.number.args                 100 参数数量最多为100    
hadoop.security.uid.cache.secs             14400      
hdfs-default.html        
参数名 参数值 参数说明    
dfs.namenode.logging.level        info          输出日志类型    
dfs.secondary.http.address      0.0.0.0:50090 备份名称节点的http协议访问地址与端口                                                                                        
dfs.datanode.address              0.0.0.0:50010 数据节点的TCP管理服务地址和端口    
dfs.datanode.http.address         0.0.0.0:50075 数据节点的HTTP协议访问地址和端口    
dfs.datanode.ipc.address          0.0.0.0:50020 数据节点的IPC服务访问地址和端口    
dfs.datanode.handler.count        3 数据节点的服务连接处理线程数    
dfs.http.address                  0.0.0.0:50070 名称节点的http协议访问地址与端口    
dfs.https.enable                  false         支持https访问方式标识    
dfs.https.need.client.auth        false         客户端指定https访问标识    
dfs.https.server.keystore.resource ssl-server.xml Ssl密钥服务端的配置文件    
dfs.https.client.keystore.resource ssl-client.xml Ssl密钥客户端的配置文件    
dfs.datanode.https.address        0.0.0.0:50475 数据节点的HTTPS协议访问地址和端口    
dfs.https.address                 0.0.0.0:50470 名称节点的HTTPS协议访问地址和端口    
dfs.datanode.dns.interface        default       数据节点采用IP地址标识    
dfs.datanode.dns.nameserver       default       指定DNS的IP地址    
dfs.replication.considerLoad      true          加载目标或不加载的标识    
dfs.default.chunk.view.size       32768 浏览时的文件块大小设置为32K    
dfs.datanode.du.reserved          0 每个卷预留的空闲空间数量    
dfs.name.dir                      ${hadoop.tmp.dir}/dfs/name 存贮在本地的名字节点数据镜象的目录,作为名字节点的冗余备份    
dfs.name.edits.dir                ${dfs.name.dir}           存贮文件操作过程信息的存贮目录    
dfs.web.ugi                       webuser,webgroup          Web接口访问的用户名和组的帐户设定    
dfs.permissions                   true                      文件操作时的权限检查标识。    
dfs.permissions.supergroup        supergroup                超级用户的组名定义    
dfs.block.access.token.enable     false                     数据节点访问令牌标识    
dfs.block.access.key.update.interval 600 升级访问钥时的间隔时间    
dfs.block.access.token.lifetime     600 访问令牌的有效时间    
dfs.data.dir                         ${hadoop.tmp.dir}/dfs/data 数据节点的块本地存放目录    
dfs.datanode.data.dir.perm          755 数据节点的存贮块的目录访问权限设置    
dfs.replication                     3 缺省的块复制数量    
dfs.replication.max                  512 块复制的最大数量    
dfs.replication.min                 1 块复制的最小数量     
dfs.block.size                      67108864 缺省的文件块大小为64M    
dfs.df.interval                     60000 磁盘空间统计间隔为6秒    
dfs.client.block.write.retries      3 块写入出错时的重试次数    
dfs.blockreport.intervalMsec        3600000 块的报告间隔时为1小时    
dfs.blockreport.initialDelay        0 块顺序报告的间隔时间    
dfs.heartbeat.interval              3 数据节点的心跳检测间隔时间    
dfs.namenode.handler.count          10 名称节点的连接处理的线程数量    
dfs.safemode.threshold.pct   0.999f                    启动安全模式的阀值设定
 
   
dfs.safemode.extension              30000 当阀值达到量值后扩展的时限    
dfs.balance.bandwidthPerSec         1048576 启动负载均衡的数据节点可利用带宽最大值为1M    
dfs.hosts                             可与名称节点连接的主机地址文件指定。    
dfs.hosts.exclude                     不充计与名称节点连接的主机地址文件设定    
dfs.max.objects                     0 文件数、目录数、块数的最大数量    
dfs.namenode.decommission.interval  30 名称节点解除命令执行时的监测时间周期    
dfs.namenode.decommission.nodes.per.interval 5 名称节点解除命令执行是否完检测次数    
dfs.replication.interval                    3 名称节点计算数据节点的复制工作的周期数.    
dfs.access.time.precision                3600000 充许访问文件的时间精确到1小时    
dfs.support.append                          false    是否充许链接文件指定    
dfs.namenode.delegation.key.update-interval 86400000 名称节点上的代理令牌的主key的更新间隔时间为24小时    
dfs.namenode.delegation.token.max-lifetime  604800000 代理令牌的有效时间最大值为7天    
dfs.namenode.delegation.token.renew-interval 86400000 代理令牌的更新时间为24小时    
dfs.datanode.failed.volumes.tolerated 0 决定停止数据节点提供服务充许卷的出错次数。0次则任何卷出错都要停止数据节点    
mapred-default.html        
参数名 参数值 参数说明    
hadoop.job.history.location   作业跟踪管理器的静态历史文件的存放目录。    
hadoop.job.history.user.location   可以指定具体某个作业的跟踪管理器的历史文件存放目录    
mapred.job.tracker.history.completed.location   已完成作业的历史文件的存放目录    
io.sort.factor 10 排完序的文件的合并时的打开文件句柄数    
io.sort.mb 100 排序文件的内存缓存大小为100M    
io.sort.record.percent 0.05 排序线程阻塞的内存缓存剩余比率    
io.sort.spill.percent 0.8 当缓冲占用量为该值时,线程需要将内容先备份到磁盘中。    
io.map.index.skip 0 索引条目的间隔设定    
mapred.job.tracker  local       作业跟踪管理器是否和MR任务在一个进程中    
mapred.job.tracker.http.address 0.0.0.0:50030 作业跟踪管理器的HTTP服务器访问端口和地址    
mapred.job.tracker.handler.count           10 作业跟踪管理器的管理线程数,线程数比例是任务管理跟踪器数量的0.04    
mapred.task.tracker.report.address     127.0.0.1:0 任务管理跟踪器的主机地址和端口地址
 
   
mapred.local.dir                           ${hadoop.tmp.dir}/mapred/local  MR的中介数据文件存放目录    
mapred.system.dir                          ${hadoop.tmp.dir}/mapred/system MR的控制文件存放目录    
mapreduce.jobtracker.staging.root.dir      ${hadoop.tmp.dir}/mapred/staging 每个正在运行作业文件的存放区    
mapred.temp.dir                            ${hadoop.tmp.dir}/mapred/temp   MR临时共享文件存放区       
mapred.local.dir.minspacestart             0 MR本地中介文件删除时,不充许有任务执行的数量值。    
mapred.local.dir.minspacekill              0 MR本地中介文件删除时,除非所有任务都已完成的数量值。    
mapred.tasktracker.expiry.interval 600000 任务管理跟踪器不发送心跳的累计时间间隔超过600秒,则任务管理跟踪器失效    
mapred.tasktracker.resourcecalculatorplugin   指定的一个用户访问资源信息的类实例    
mapred.tasktracker.taskmemorymanager.monitoring-interval 5000 监控任务管理跟踪器任务内存使用率的时间间隔    
mapred.tasktracker.tasks.sleeptime-before-sigkill       5000 发出进程终止后,间隔5秒后发出进程消亡信号
 
   
mapred.map.tasks                                        2 每个作业缺省的map任务数为2    
mapred.reduce.tasks                                   1 每个作业缺省的reduce任务数为1    
mapreduce.tasktracker.outofband.heartbeat               false   让在任务结束后发出一个额外的心跳信号    
mapreduce.tasktracker.outofband.heartbeat.damper        1000000 当额外心跳信号发出量太多时,则适当阻止
 
   
mapred.jobtracker.restart.recover                    false   充许任务管理器恢复时采用的方式    
mapred.jobtracker.job.history.block.size            3145728 作业历史文件块的大小为3M     
mapreduce.job.split.metainfo.maxsize                10000000 分隔元信息文件的最大值是10M以下
 
   
mapred.jobtracker.taskScheduler                      org.apache.hadoop.mapred.JobQueueTaskScheduler 设定任务的执行计划实现类    
mapred.jobtracker.taskScheduler.maxRunningTasksPerJob   作业同时运行的任务数的最大值    
mapred.map.max.attempts                              4 Map任务的重试次数    
mapred.reduce.max.attempts                           4 Reduce任务的重试次数    
mapred.reduce.parallel.copies                         5 在复制阶段时reduce并行传送的值。    
mapreduce.reduce.shuffle.maxfetchfailures            10 取map输出的最大重试次数    
mapreduce.reduce.shuffle.connect.timeout             180000 REDUCE任务连接任务管理器获得map输出时的总耗时是3分钟          
 
   
mapreduce.reduce.shuffle.read.timeout                180000 REDUCE任务等待map输出数据的总耗时是3分钟    
mapred.task.timeout                                  600000 如果任务无读无写时的时间耗时为10分钟,将被终止    
mapred.tasktracker.map.tasks.maximum               2 任管管理器可同时运行map任务数为2    
mapred.tasktracker.reduce.tasks.maximum             2 任管管理器可同时运行reduce任务数为2    
mapred.jobtracker.completeuserjobs.maximum  100 当用户的完成作业数达100个后,将其放入作业历史文件中    
mapreduce.reduce.input.limit                -1 Reduce输入量的限制。    
mapred.job.tracker.retiredjobs.cache.size   1000 作业状态为已不在执行的保留在内存中的量为1000    
mapred.job.tracker.jobhistory.lru.cache.size 5 作业历史文件装载到内存的数量    
mapred.child.java.opts                      -Xmx200m 启动task管理的子进程时的内存设置    
mapred.child.env                                    子进程的参数设置    
mapred.child.ulimit                                 虚拟机所需内存的设定。    
mapred.cluster.map.memory.mb                -1      
mapred.cluster.reduce.memory.mb             -1      
mapred.cluster.max.map.memory.mb            -1      
mapred.cluster.max.reduce.memory.mb         -1      
mapred.job.map.memory.mb                    -1      
mapred.job.reduce.memory.mb                 -1      
mapred.child.tmp                            /tmp    Mr任务信息的存放目录    
mapred.inmem.merge.threshold                1000 内存中的合并文件数设置    
mapred.job.shuffle.merge.percent            0.66                                                                                          
mapred.job.shuffle.input.buffer.percent     0.7      
mapred.job.reduce.input.buffer.percent      0      
mapred.map.tasks.speculative.execution      true    Map任务的多实例并行运行标识    
mapred.reduce.tasks.speculative.execution   true    Reduce任务的多实例并行运行标识    
mapred.job.reuse.jvm.num.tasks 1 每虚拟机运行的任务数    
mapred.min.split.size 0 Map的输入数据被分解的块数设置    
mapred.jobtracker.maxtasks.per.job -1 一个单独作业的任务数设置    
mapred.submit.replication 10 提交作业文件的复制级别    
mapred.tasktracker.dns.interface default      任务管理跟踪器是否报告IP地址名的开关     
mapred.tasktracker.dns.nameserver default      作业和任务管理跟踪器之间通讯方式采用的DNS服务的主机名或IP地址    
tasktracker.http.threads 40 http服务器的工作线程数量    
mapred.task.tracker.http.address 0.0.0.0:50060 任务管理跟踪器的http服务器的地址和端口    
keep.failed.task.files false        失败任务是否保存到文件中
 
   
mapred.output.compress false        作业的输出是否压缩    
mapred.output.compression.type RECORD       作业输出采用NONE, RECORD or BLOCK三种方式中一种压缩的写入到流式文件    
mapred.output.compression.codec org.apache.hadoop.io.compress.DefaultCodec 压缩类的设置    
mapred.compress.map.output false                                     Map的输出是否压缩    
mapred.map.output.compression.codec org.apache.hadoop.io.compress.DefaultCodec Map的输出压缩的实现类指定    
map.sort.class org.apache.hadoop.util.QuickSort          排序键的排序类指定    
mapred.userlog.limit.kb 0 每个任务的用户日志文件大小    
mapred.userlog.retain.hours 24 作业完成后的用户日志留存时间为24小时    
mapred.user.jobconf.limit 5242880 Jobconf的大小为5M    
mapred.hosts                                           可与作业管理跟踪器连接的主机名    
mapred.hosts.exclude                                            不可与作业管理跟踪器连接的主机名    
mapred.heartbeats.in.second                     100 作业管理跟踪器的每秒中到达的心跳数量为100    
mapred.max.tracker.blacklists                   4 任务管理跟踪器的黑名单列表的数量    
mapred.jobtracker.blacklist.fault-timeout-window 180 任务管理跟踪器超时180分钟则訪任务将被重启    
mapred.jobtracker.blacklist.fault-bucket-width  15      
mapred.max.tracker.failures                   4 任务管理跟踪器的失败任务数设定    
jobclient.output.filter                         FAILED              控制任务的用户日志输出到作业端时的过滤方式    
mapred.job.tracker.persist.jobstatus.active     false               是否持久化作业管理跟踪器的信息    
mapred.job.tracker.persist.jobstatus.hours      0 持久化作业管理跟踪器的信息的保存时间    
mapred.job.tracker.persist.jobstatus.dir        /jobtracker/jobsInfo 作业管理跟踪器的信息存放目录    
mapreduce.job.complete.cancel.delegation.tokens true                恢复时是否变更领牌       
mapred.task.profile                             false               任务分析信息是否建设标志    
mapred.task.profile.maps                        0-2                 设置map任务的分析范围    
mapred.task.profile.reduces                     0-2                 设置reduce任务的分析范围    
mapred.line.input.format.linespermap           1 每次切分的行数设置    
mapred.skip.attempts.to.start.skipping          2 在跳转模式未被设定的情况下任务的重试次数                                                                                        
mapred.skip.map.auto.incr.proc.count            true                MapRunner在调用map功能后的增量处理方式设置    
mapred.skip.reduce.auto.incr.proc.count        true                在调用reduce功能后的增量处理方式设置    
mapred.skip.out.dir                                                  跳过记录的输出目录    
mapred.skip.map.max.skip.records             0      
mapred.skip.reduce.max.skip.groups            0      
job.end.retry.attempts                          0 Hadoop偿试连接通知器的次数      
job.end.retry.interval                         30000 通知偿试回应的间隔操作为30秒    
hadoop.rpc.socket.factory.class.JobSubmissionProtocol   指定与作业跟踪管理器的通讯方式,缺省是采用rpc方式    
mapred.task.cache.levels                             2 任务缓存级别设置    
mapred.queue.names                                default 分隔作业队例的分隔符设定    
mapred.acls.enabled                                  false  指定ACL访问控制列表    
mapred.queue.default.state                            RUNNING 定义队列的状态    
mapred.job.queue.name                             default 已提交作业的队列设定    
mapreduce.job.acl-modify-job                                指定可修改作业的ACL列表    
mapreduce.job.acl-view-job                                  指定可浏临作业的ACL列表    
mapred.tasktracker.indexcache.mb                 10 任务管理跟踪器的索引内存的最大容器    
mapred.combine.recordsBeforeProgress              10000 在聚合处理时的记录块数
 
   
mapred.merge.recordsBeforeProgress              10000 在汇总处理时的记录块数    
mapred.reduce.slowstart.completed.maps            0.05      
mapred.task.tracker.task-controller               org.apache.hadoop.mapred.DefaultTaskController 任务管理器的设定    
mapreduce.tasktracker.group                                                                      任务管理器的组成员设定    
mapred.healthChecker.script.path                                                                脚本的绝对路径指定,这些脚本是心跳服务的    
mapred.healthChecker.interval                     60000 节点心跳信息的间隔    
mapred.healthChecker.script.timeout                600000      
mapred.healthChecker.script.args                                                                  参数列表
 
   
mapreduce.job.counters.limit                          120 作业计数器的最小值    
分享到:
评论

相关推荐

    hadoop2.7.3_windows安装附件

    3. **配置Hadoop配置文件**: Hadoop的配置主要通过两个核心文件完成:`core-site.xml`和`hdfs-site.xml`。在`conf`目录下编辑这些文件,设定Hadoop的相关参数。例如,`core-site.xml`中应指定临时目录和默认文件系统...

    Hadoop环境搭建 附件.rar

    在提供的压缩包"**Hadoop环境搭建 附件**"中,应该包含了完成上述步骤所需的配置文件和测试代码。这些文件可以帮助你快速设置好环境,避免了手动配置可能出现的错误,从而提高工作效率。确保按照说明文档的指示正确...

    Hadoop从入门到上手企业开发

    近百节课视频详细讲解,需要的小伙伴自行百度网盘下载,链接见附件,永久有效。 课程目录 000 上课方式和课程大纲介绍 001 Linux系统基本知识说明和启动Linux虚拟机 002 配置虚拟机IP地址和如何使用远程工具...

    java操作Hadoop源码之HDFS Java API操作-上传文件

    在Java编程环境中,Hadoop分布式文件系统(HDFS)提供了丰富的Java API,使得开发者能够方便地与HDFS进行交互,包括文件的上传、下载、读写等操作。本篇文章将详细探讨如何使用HDFS Java API来实现文件上传的功能。 ...

    Hadoop-2.2.0针对ubuntu AMD64的native lib

    这一过程通常包括获取源码、配置编译环境、修改配置文件以适应64位架构,然后编译和安装。 附件提供的“hadoop-2.2.0 native lib for Ubuntu AMD64”正是这样一个解决方案,它包含了在Ubuntu AMD64系统下编译出的...

    Pycharm配置hadoop+spark环境(windows篇)-附件资源

    Pycharm配置hadoop+spark环境(windows篇)-附件资源

    基于spring-boot和hdfs的网盘.zip

    这个子模块可能包含了Java类,这些类使用Spring Data Hadoop的API来实现文件上传、下载等操作,或者包含了配置文件,定义了与HDFS集群的连接参数。 总的来说,这个“基于spring-boot和hdfs的网盘”应用结合了现代...

    spark本地开发模式配置

    2.下载hadoop的安装包,我下载的是hadoop-2.6版本的,配置HADOOP_HOME 和配置JAVA_HOME类似,不多说了 3.把附件架包中的winutils.exe 添加到hadoop/bin目录下,这个是用来在windows下调用hadoop命令的 4.下载IDEA ...

    hbase导入话单数据mapreduce函数实现执行过程实例(博客附件)

    1. **数据预处理**:话单数据(如bill.txt)可能来自多种源,如日志文件或数据库导出。数据预处理阶段可能包括清洗、转换和格式化,使其符合HBase的存储模型。HBase的数据模型基于行、列族、列和时间戳,因此数据...

    Centos7.6自动化安装CDH6.2.0脚本.docx

    - 数据库配置文件,对MySQL的配置进行定制。 - vsftpd的RPM包,用于搭建FTP服务器,便于文件传输。 - MySQL驱动包,如果需要在主节点上操作,需要将其放在指定目录。 5. **文件组织** - 在你的Linux用户目录下...

    打包工具.rar

    7. 在开发环境中的应用:在软件开发中,打包工具常用于构建过程,将源代码、资源文件和配置文件打包成一个可部署的格式,例如Java的JAR文件或.NET的DLL文件。 8. 版本控制:在版本控制系统中,如Git,压缩工具可以...

    自己总结的Kettle使用方法和成果.doc

    由于 Kettle 没有将所有的数据库的 Driver 文件集成,所以如果想连接指定的数据库,需要自己下载 JDBC 驱动,放入到解压目录下的 lib 目录中。添加完 JDBC 驱动后,必须重启下 Kettle 才能加载驱动。 六、数据迁移 ...

    Centos7.4离线本地yum源自动化安装CDH5.13.0脚本

    2. **参数配置**:在Cloudera Manager Server上部署脚本和文档时,请根据附件中的指导正确填写hostname等必要参数。 3. **执行命令**:了解并熟悉脚本的执行命令格式,如`sh InstallCDH_SSH.sh hostname.txt`。 ###...

    zookeeper 自己学习资料

    2. **配置管理**:集中管理和动态更新分布式系统的配置信息,简化了配置的管理和分发。 3. **集群管理**:监控服务状态,实现服务发现和服务间的相互通信。 4. **分布式同步**:提供分布式锁和队列,确保分布式环境...

    Sqoop企业级大数据迁移方案全方位实战视频教程

    手把手视频详细讲解项目开发全过程,需要的小伙伴自行百度网盘下载,链接见附件,永久有效。 课程简介 从零开始讲解大数据业务及数据采集和迁移需求,以案例驱动的方式讲解基于Sqoop构建高性能的分布式数据迁移和...

    HBaseClient:HBase客户端数据管理软件

    基于XJava,使用xml配置文件绘制可视化界面。 可视化界面操作 表 表的定义、编辑、删除; 数据 数据的添加、编辑、删除; 数据的全部清空、多条删除、多条复制; 查询 主键的精确; 关键字的模糊查询 关键字的模糊...

    Xeppelin

    在压缩包文件“xeppelin”中,可能包含了Xeppelin的安装文件、配置文件、示例Notebook或其他相关文档。这些资源可以帮助用户快速上手,理解Xeppelin的用法,并根据实际需求进行配置和定制。 总之,Xeppelin是大数据...

Global site tag (gtag.js) - Google Analytics