@VM
[bigdata@bigdata hadoop]$ cat /proc/cpuinfo
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 13
model name : QEMU Virtual CPU version (cpu64-rhel6)
stepping : 3
cpu MHz : 1995.223
cache size : 4096 KB
fpu : yes
fpu_exception : yes
cpuid level : 4
wp : yes
flags : fpu de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pse36 clflush mmx fxsr sse sse2 syscall nx lm unfair_spinlock pni cx16 hypervisor lahf_lm
bogomips : 3990.44
clflush size : 64
cache_alignment : 64
address sizes : 40 bits physical, 48 bits virtual
power management:
processor : 1
vendor_id : GenuineIntel
cpu family : 6
model : 13
model name : QEMU Virtual CPU version (cpu64-rhel6)
stepping : 3
cpu MHz : 1995.223
cache size : 4096 KB
fpu : yes
fpu_exception : yes
cpuid level : 4
wp : yes
flags : fpu de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pse36 clflush mmx fxsr sse sse2 syscall nx lm unfair_spinlock pni cx16 hypervisor lahf_lm
bogomips : 3990.44
clflush size : 64
cache_alignment : 64
address sizes : 40 bits physical, 48 bits virtual
power management:
[bigdata@bigdata hadoop]$ free -m
total used free shared buffers cached
Mem: 3832 3302 529 0 57 631
-/+ buffers/cache: 2613 1218
Swap: 8191 143 8048
[bigdata@bigdata hadoop]$ df -lh
文件系统 容量 已用 可用 已用%% 挂载点
/dev/vda3 288G 12G 262G 5% /
tmpfs 1.9G 836K 1.9G 1% /dev/shm
/dev/vda1 97M 31M 61M 34% /boot
[bigdata@bigdata hadoop]$ hadoop jar hadoop-test-1.0.4.jar nnbench -operation create_write
Warning: $HADOOP_HOME is deprecated.
NameNode Benchmark 0.4
13/04/21 12:33:48 INFO hdfs.NNBench: Test Inputs:
13/04/21 12:33:48 INFO hdfs.NNBench: Test Operation: create_write
13/04/21 12:33:48 INFO hdfs.NNBench: Start time: 2013-04-21 12:35:48,45
13/04/21 12:33:48 INFO hdfs.NNBench: Number of maps: 1
13/04/21 12:33:48 INFO hdfs.NNBench: Number of reduces: 1
13/04/21 12:33:48 INFO hdfs.NNBench: Block Size: 1
13/04/21 12:33:48 INFO hdfs.NNBench: Bytes to write: 0
13/04/21 12:33:48 INFO hdfs.NNBench: Bytes per checksum: 1
13/04/21 12:33:48 INFO hdfs.NNBench: Number of files: 1
13/04/21 12:33:48 INFO hdfs.NNBench: Replication factor: 1
13/04/21 12:33:48 INFO hdfs.NNBench: Base dir: /benchmarks/NNBench
13/04/21 12:33:48 INFO hdfs.NNBench: Read file after open: false
13/04/21 12:33:48 INFO hdfs.NNBench: Deleting data directory
13/04/21 12:33:48 INFO hdfs.NNBench: Creating 1 control files
13/04/21 12:33:49 INFO mapred.FileInputFormat: Total input paths to process : 1
13/04/21 12:33:49 INFO mapred.JobClient: Running job: job_201304060732_0007
13/04/21 12:33:50 INFO mapred.JobClient: map 0% reduce 0%
13/04/21 12:35:53 INFO mapred.JobClient: map 100% reduce 0%
13/04/21 12:36:05 INFO mapred.JobClient: map 100% reduce 100%
13/04/21 12:36:10 INFO mapred.JobClient: Job complete: job_201304060732_0007
13/04/21 12:36:10 INFO mapred.JobClient: Counters: 30
13/04/21 12:36:10 INFO mapred.JobClient: Job Counters
13/04/21 12:36:10 INFO mapred.JobClient: Launched reduce tasks=1
13/04/21 12:36:10 INFO mapred.JobClient: SLOTS_MILLIS_MAPS=118573
13/04/21 12:36:10 INFO mapred.JobClient: Total time spent by all reduces waiting after reserving slots (ms)=0
13/04/21 12:36:10 INFO mapred.JobClient: Total time spent by all maps waiting after reserving slots (ms)=0
13/04/21 12:36:10 INFO mapred.JobClient: Launched map tasks=1
13/04/21 12:36:10 INFO mapred.JobClient: Data-local map tasks=1
13/04/21 12:36:10 INFO mapred.JobClient: SLOTS_MILLIS_REDUCES=10698
13/04/21 12:36:10 INFO mapred.JobClient: File Input Format Counters
13/04/21 12:36:10 INFO mapred.JobClient: Bytes Read=124
13/04/21 12:36:10 INFO mapred.JobClient: File Output Format Counters
13/04/21 12:36:10 INFO mapred.JobClient: Bytes Written=164
13/04/21 12:36:10 INFO mapred.JobClient: FileSystemCounters
13/04/21 12:36:10 INFO mapred.JobClient: FILE_BYTES_READ=184
13/04/21 12:36:10 INFO mapred.JobClient: HDFS_BYTES_READ=245
13/04/21 12:36:10 INFO mapred.JobClient: FILE_BYTES_WRITTEN=45589
13/04/21 12:36:10 INFO mapred.JobClient: HDFS_BYTES_WRITTEN=164
13/04/21 12:36:10 INFO mapred.JobClient: Map-Reduce Framework
13/04/21 12:36:10 INFO mapred.JobClient: Map output materialized bytes=184
13/04/21 12:36:10 INFO mapred.JobClient: Map input records=1
13/04/21 12:36:10 INFO mapred.JobClient: Reduce shuffle bytes=184
13/04/21 12:36:10 INFO mapred.JobClient: Spilled Records=14
13/04/21 12:36:10 INFO mapred.JobClient: Map output bytes=164
13/04/21 12:36:10 INFO mapred.JobClient: Total committed heap usage (bytes)=220266496
13/04/21 12:36:10 INFO mapred.JobClient: CPU time spent (ms)=2510
13/04/21 12:36:10 INFO mapred.JobClient: Map input bytes=38
13/04/21 12:36:10 INFO mapred.JobClient: SPLIT_RAW_BYTES=121
13/04/21 12:36:10 INFO mapred.JobClient: Combine input records=0
13/04/21 12:36:10 INFO mapred.JobClient: Reduce input records=7
13/04/21 12:36:10 INFO mapred.JobClient: Reduce input groups=7
13/04/21 12:36:10 INFO mapred.JobClient: Combine output records=0
13/04/21 12:36:10 INFO mapred.JobClient: Physical memory (bytes) snapshot=248139776
13/04/21 12:36:10 INFO mapred.JobClient: Reduce output records=7
13/04/21 12:36:10 INFO mapred.JobClient: Virtual memory (bytes) snapshot=2519277568
13/04/21 12:36:10 INFO mapred.JobClient: Map output records=7
13/04/21 12:36:10 INFO hdfs.NNBench: -------------- NNBench -------------- :
13/04/21 12:36:10 INFO hdfs.NNBench: Version: NameNode Benchmark 0.4
13/04/21 12:36:10 INFO hdfs.NNBench: Date & time: 2013-04-21 12:36:10,314
13/04/21 12:36:10 INFO hdfs.NNBench:
13/04/21 12:36:10 INFO hdfs.NNBench: Test Operation: create_write
13/04/21 12:36:10 INFO hdfs.NNBench: Start time: 2013-04-21 12:35:48,45
13/04/21 12:36:10 INFO hdfs.NNBench: Maps to run: 1
13/04/21 12:36:10 INFO hdfs.NNBench: Reduces to run: 1
13/04/21 12:36:10 INFO hdfs.NNBench: Block Size (bytes): 1
13/04/21 12:36:10 INFO hdfs.NNBench: Bytes to write: 0
13/04/21 12:36:10 INFO hdfs.NNBench: Bytes per checksum: 1
13/04/21 12:36:10 INFO hdfs.NNBench: Number of files: 1
13/04/21 12:36:10 INFO hdfs.NNBench: Replication factor: 1
13/04/21 12:36:10 INFO hdfs.NNBench: Successful file operations: 1
13/04/21 12:36:10 INFO hdfs.NNBench:
13/04/21 12:36:10 INFO hdfs.NNBench: # maps that missed the barrier: 0
13/04/21 12:36:10 INFO hdfs.NNBench: # exceptions: 0
13/04/21 12:36:10 INFO hdfs.NNBench:
13/04/21 12:36:10 INFO hdfs.NNBench: TPS: Create/Write/Close: 47
13/04/21 12:36:10 INFO hdfs.NNBench: Avg exec time (ms): Create/Write/Close: 42.0
13/04/21 12:36:10 INFO hdfs.NNBench: Avg Lat (ms): Create/Write: 39.0
13/04/21 12:36:10 INFO hdfs.NNBench: Avg Lat (ms): Close: 3.0
13/04/21 12:36:10 INFO hdfs.NNBench:
13/04/21 12:36:10 INFO hdfs.NNBench: RAW DATA: AL Total #1: 39
13/04/21 12:36:10 INFO hdfs.NNBench: RAW DATA: AL Total #2: 3
13/04/21 12:36:10 INFO hdfs.NNBench: RAW DATA: TPS Total (ms): 42
13/04/21 12:36:10 INFO hdfs.NNBench: RAW DATA: Longest Map Time (ms): 42.0
13/04/21 12:36:10 INFO hdfs.NNBench: RAW DATA: Late maps: 0
13/04/21 12:36:10 INFO hdfs.NNBench: RAW DATA: # of exceptions: 0
相关推荐
在IT行业中,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分布式存储。Hadoop 2.7.3是这个框架的一个稳定版本,它包含了多个改进和优化,以提高性能和稳定性。在这个版本中,Winutils.exe和hadoop.dll是两...
Hadoop是一个开源的分布式计算框架,由Apache基金会开发,它主要设计用于处理和存储大量数据。在提供的信息中,我们关注的是"Hadoop的dll文件",这是一个动态链接库(DLL)文件,通常在Windows操作系统中使用,用于...
在大数据处理领域,Hadoop是一个不可或缺的开源框架,它提供了分布式存储和计算的能力。本文将详细探讨与"Hadoop.dll"和"winutils.exe"相关的知识点,以及它们在Hadoop-2.7.1版本中的作用。 Hadoop.dll是Hadoop在...
在Hadoop生态系统中,`hadoop.dll`和`winutils.exe`是两个关键组件,尤其对于Windows用户来说,它们在本地开发和运行Hadoop相关应用时必不可少。`hadoop.dll`是一个动态链接库文件,主要用于在Windows环境中提供...
在Hadoop生态系统中,Hadoop 2.7.7是一个重要的版本,它为大数据处理提供了稳定性和性能优化。Hadoop通常被用作Linux环境下的分布式计算框架,但有时开发者或学习者在Windows环境下也需要进行Hadoop相关的开发和测试...
在IT行业中,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分布式存储。Hadoop 2.7.3是Hadoop发展中的一个重要版本,它包含了众多的优化和改进,旨在提高性能、稳定性和易用性。在这个版本中,`hadoop.dll`...
在Hadoop生态系统中,`hadoop.dll`和`winutils.exe`是两个关键组件,尤其对于Windows用户来说。本文将详细介绍这两个文件以及它们在Hadoop 2.6.0版本中的作用。 `hadoop.dll`是Hadoop在Windows环境下运行所必需的一...
Hadoop 是一个处理、存储和分析海量的分布式、非结构化数据的开源框架。最初由 Yahoo 的工程师 Doug Cutting 和 Mike Cafarella Hadoop 是一个处理、存储和分析海量的分布式、非结构化数据的开源框架。最初由 Yahoo...
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进 Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不...
在IT行业中,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分布式存储。它是由Apache软件基金会开发并维护的,旨在实现高效、可扩展的数据处理能力。Hadoop的核心由两个主要组件构成:Hadoop Distributed ...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它允许在普通硬件上高效处理大量数据。在Windows环境下,Hadoop的使用与Linux有所不同,因为它的设计最初是针对Linux操作系统的。"winutils"和"hadoop.dll...
标题 "hadoop2.6 hadoop.dll+winutils.exe" 提到的是Hadoop 2.6版本中的两个关键组件:`hadoop.dll` 和 `winutils.exe`,这两个组件对于在Windows环境中配置和运行Hadoop至关重要。Hadoop原本是为Linux环境设计的,...
在Windows环境下安装Hadoop 3.1.0是学习和使用大数据处理技术的重要步骤。Hadoop是一个开源框架,主要用于分布式存储和处理大规模数据集。在这个过程中,我们将详细讲解Hadoop 3.1.0在Windows上的安装过程以及相关...
Apache Hadoop是一个开源框架,主要用于分布式存储和计算大数据集。Hadoop 3.1.0是这个框架的一个重要版本,提供了许多性能优化和新特性。在Windows环境下安装和使用Hadoop通常比在Linux上更为复杂,因为Hadoop最初...
在搭建Hadoop环境的过程中,经常会遇到一些特定的依赖问题,比如缺少`hadoop.dll`和`winutils.exe`这两个关键组件。本文将详细介绍这两个文件及其在Hadoop生态系统中的作用,以及如何解决它们缺失的问题。 首先,`...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它的核心设计是解决大数据处理的问题。Hadoop 2.7.4是Hadoop发展过程中的一个重要版本,它提供了许多增强特性和稳定性改进,使得大规模数据处理更加高效和...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,主要由HDFS(Hadoop Distributed File System)和MapReduce两大部分组成,旨在提供一种可靠、可扩展、高效的数据处理和存储解决方案。在标题中提到的...
在Hadoop生态系统中,`winutils.exe`和`hadoop.dll`是Windows环境下运行Hadoop必备的组件,尤其对于开发和测试环境来说至关重要。这里我们深入探讨这两个组件以及与Eclipse插件的相关性。 首先,`winutils.exe`是...
《Hadoop Eclipse Plugin:开发利器的进化》 在大数据领域,Hadoop作为开源分布式计算框架,扮演着核心角色。为了方便开发者在Eclipse或MyEclipse这样的集成开发环境中高效地进行Hadoop应用开发,Hadoop-Eclipse-...
在IT行业中,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分布式存储。Hadoop2.6.0是这个框架的一个重要版本,它包含了多项优化和改进,以提高系统的稳定性和性能。在这个压缩包中,我们关注的是与Windows...