package com.gyl.framework.util;
import java.io.File;
import java.util.Calendar;
import java.util.GregorianCalendar;
public class FileUtil {
/**
*@param args
*@author gaoyanlong
*@date 2013-5-6 上午10:18:33
*@comment 创建工作目录-每天对应一个文件夹
*/
// 年份
private static final String YEAR = "2013";
// 工作目录
private static final String DIR = "E:";
public static void main(String args[]) {
for (int month = 1; month <= 12; month++) {
Calendar calendar = new GregorianCalendar(2013, month - 1, 1);
calendar.set(Calendar.DAY_OF_MONTH, calendar
.getActualMinimum(Calendar.DAY_OF_MONTH));
// 开始日期
int beginDate = calendar.get(Calendar.DATE);
calendar.set(Calendar.DAY_OF_MONTH, calendar
.getActualMaximum(Calendar.DAY_OF_MONTH));
// 结束日期
int endDate = calendar.get(Calendar.DATE);
for (int date = beginDate; date <= endDate; date++) {
// 所在目录
String dirName = DIR + "\\" + YEAR + "年" + month + "月";
// 每日记录文件名
String fileName = dirName + "\\" + month + "月" + date + "日";
// 创建文件
File file = new File(fileName);
// 获取上级目录
File parent = file.getParentFile();
// 如果目录所在的上级目录不存在则-创建一个新的目录
if (parent != null && !parent.exists()) {
parent.mkdirs();
}
// 创建每日工作记录文件
file.mkdir();
}
}
}
}
相关推荐
- **7.2.13 导入数据到 HBase**:使用 `--hbase-create-table` 创建 HBase 表。 - **7.2.14 导入数据到 Accumulo**:支持将数据导入至 Accumulo 数据库。 - **7.2.15 额外的导入配置属性**:提供额外的配置选项以...
- **创建Job**:使用`sqoop job --create <job-name> -- import ...`命令创建Job。 - **执行Job**:使用`sqoop job --exec <job-name>`执行Job。 - **删除Job**:使用`sqoop job --delete <job-name>`删除Job。 - **...
测试Sqoop安装是否成功,可以运行 `sqoop help` 查看可用命令,如 `codegen`, `create-hive-table`, `eval`, `export`, `help` 等。 【数据导入】 Sqoop 的 `import` 命令用于从关系型数据库导入数据到Hadoop集群...
sqoop create-hive-table --connect jdbc:mysql://localhost:3306/hive --username root --password 123456 --table TBLS --hive-table h_tbls2 ``` - `--hive-table`: 指定生成的Hive表名称。 #### 四、Eval **...
4. **数据转换**: `sqoop job --create myjob --import ... --map-column-java '{"emp_name":"String","salary":"Integer"}'` 以上就是关于 Sqoop 的基本介绍、版本差异以及如何在 Linux 环境下搭建和使用 Sqoop ...
sqoop create-hive-table --connect jdbc:mysql://localhost:3306/hive --username root --password 123456 --table TBLS --hive-table h_tbls2 ``` - **参数说明**: - `--hive-table`: 指定要创建的Hive表名称...
2. Java接口访问:编写Java程序,使用HDFS API进行文件读写操作,例如`FileSystem`类的`create()`和`open()`方法。 **四、MapReduce安装配置实验** MapReduce是Hadoop处理大数据的核心组件,学生需要了解并完成...
sqoop create-hive-table –connect jdbc:mysql://localhost:3306/hive –username root –password 123456 –table TBLS –hive-table h_tbls2 ``` - **连接字符串**:同上。 - **表名**:TBLS,即要创建 Hive 表...
<name>hive.metastore.warehouse.dir <value>/user/hive/warehouse <name>hive.exec.scratchdir <value>hdfs://localhost:9000/tmp/hive ``` 5. **格式化 Metastore**: - 执行 `schematool -dbType ...
- 选择 “Create project from existing source”,并浏览到 Nutch 1.2 的源码根目录。 2. **设置输出目录**: - 不要直接点击 Finish,而是点击 Next。 - 在 Default output folder 设置中,将输出目录更改为 `...
DirFile admin data upfile count news Article Database Images Inc Js bbs SoftWare UpImages UpLoadFile upload uploadface bbs/upfiles soft down Admin/Editor SoftView download guest help download/show ...
请注意所有用户均可读取或写入 UTL_FILE_DIR 参数中指定的所有文件。 值范围: 任何有效的目录路径。 默认值: 无 plsql_v2_compatibility: 说明: 设置 PL/SQL 兼容级。如果设置为 FALSE, 将执行 PL/SQL V3 行为, ...