7.1.5、Sqoop
1、数据库连接常用参数
| 1–connect | 连接关系型数据库的URL |
|---|
| 2–password | 连接数据库的密码 |
| 3–username | 连接数据库的用户名 |
| 4–connection-manager | 指定要使用的连接管理类 |
| 5–driverHadoop | 根目录 |
| 6–help | 打印帮助信息 |
| 7–verbose | 在控制台打印出详细信息 |
2、导入工具import–常用参数
| 1–enclosed-by | 给字段值前加上指定的字符 |
|---|
| 2–escaped-by | 对字段中的双引号加转义符 |
| 3–fields-terminated-by | 设定每个字段是以什么符号作为结束,默认为逗号 |
| 4–lines-terminated-by | 设定每行记录之间的分隔符,默认是n |
| 5–mysql-delimitersMysql | 默认的分隔符设置,字段之间以逗号分隔,行之间以n分隔,默认转义符是,字段值以单引号包裹。 |
| 6–optionally-enclosed-by | 给带有双引号或单引号的字段值前后加上指定字符。 |
| 7–table | 关系数据库中的哪张表 |
| 8–m | map的个数 |
| 9–split-by | 以什么做切分分到map中数据 |
| 10–target-dir | hdfs上的路径 |
| 11–delete-target-dir | hdfs上存在路径自动删除 |
| 12–direct | 直接导入方式,优化mysql速度 |
3、导出工具export–常用参数
| 1–input-enclosed-by | 对字段值前后加上指定字符 |
|---|
| 2–input-escaped-by | 对含有转移符的字段做转义处理 |
| 3–input-fields-terminated-by | 字段之间的分隔符 |
| 4–input-lines-terminated-by | 行之间的分隔符 |
| 5–input-optionally-enclosed-by | 给带有双引号或单引号的字段前后加上指定字符 |
4、Hive参数–常用
| 1–hive-import | 将数据从关系数据库中导入到hive表中 |
|---|
| 2–hive-partition-key | 创建分区,后面直接跟分区名,分区字段的默认类型为string |
| 3–hive-overwrite | 覆盖掉在hive表中已经存在的数据 |
| 4–create-hive-table | 默认是false,即,如果目标表已经存在了,那么创建任务失败 |
| 5–hive-table | 后面接要创建的hive表,默认使用MySQL的表名 |
| 6–hive-database | hive表所在的库 |
5、Hbase参数–常用
| 1–hbase-table | hbase中的表名 |
|---|
| 2–hbase-create-table | |
| 3–hbase-row-key | hbase的row key |
| 4–column-family | hbase表的列簇 |