public static void Copy() throws IOException{
Configuration cfg = new Configuration();
FileSystem hdfs = FileSystem.get(cfg);
// File file = new File("C:\\XXX\\API\\ss.txt");
Path src = new Path("C://XXX/API/ss.txt");
Path dst = new Path("/");
hdfs.copyFromLocalFile(src, dst);
System.out.println("uploud to "+ cfg.get("fs.default.name"));
FileStatus files[] = hdfs.listStatus(dst);
for(FileStatus file : files){
System.out.println(file.getPath());
}
}
当我执行上述代码的时候总是报拒绝访问ss.txt文件。不知什么原因。ss.txt可以在本地打开,能够用java的一般IO读写操作。希望哪位帮我看看什么问题。
分享到:
相关推荐
- **文件操作**:Hadoop提供了一个名为`hadoop fs`的命令行工具,可以进行HDFS上的文件操作,如`hadoop fs -put`用于上传本地文件到HDFS,`hadoop fs -get`用于下载HDFS中的文件到本地,`hadoop fs -ls`则用于列出...
当从本地上传文件到HDFS中时报错 fs.FSInputChecker: Found checksum error: b[0, 69]=6d6f77656968616861686168616868616686168616861686861680a org.apache.hadoop.fs.ChecksumException: Checksum error: file:/...
**功能描述**:将本地文件或目录复制到HDFS中。 **语法格式**: ``` hadoop fs -put <localsrc> ... ``` **参数说明**: - `<localsrc>`:本地文件或目录路径。 - `<dst>`:目标HDFS路径。 **示例**: ``` ...
首先要解决问题就要对问题知根知底,来看看这个报错: user=Administrator, access=WRITE … 其中:user=Administrator 指的是当前进行操作的用户 其他先不管 其实是不会 这个user是不是看着有点眼熟? 似李!本地...
+ 提交 oozie 调度文件到 hdfs 指定路径执行命令:hadoop fs –put oozie_run /tmp/ 上传路径在 job.properties 文件中 filepath,oozie.coord.application.path 两个属性指定。 + 提交并执行调度任务:进入 oozie...
HDFS上传文件时DataNode挂掉** - 如果在上传过程中某个DataNode挂掉: - 客户端会尝试连接其他DataNode完成上传。 - NameNode会在发现DataNode故障后重新分配存储任务,确保块完整性和冗余性。 **4. NameNode...