# hdfs外部表导入数据 本节通过一个简单的例子来说明如何通过hdfs外部表导入数据,关于NULL值处理,分割符,换行符,转义字符以及编码的处理可以参考格式化输入和输出文件章节。 使用hdfs外部表进行数据加载有三个步骤。 > - 把需要加载的数据文件放到hdfs数据目录 > - 定义(可读)外部表 > - 加载数据 ## 把需要加载的数据文件放到hdfs数据目录 例如我们在Hadoop HDFS中创建一个目录'/expense',并在本地文件系统中准备好待导入的CSV格式数据文件'expense.data': john|2017-01-20|100.00|travel|nothing tom|2016-12-01|300|taxi|nothing marry|2017-01-21|1000.00|travel|nothing kurt|2016-12-02|800|taxi|nothing 然后用Hadoop HDFS文件系统命令上传数据文件,假设待上传文件为当前文件夹下: hdfs dfs -put ./expense.data /expense ## 定义(只读)外部表 可以使用下面的命令创建外部表,其中'nnhost'和'nnport'代表使用的Hadoop HDFS的namenode 主机地址和端口号: ``` CREATE EXTERNAL TABLE ext_expenses ( name text, date date, amount float4, category text, desc1 text ) LOCATION ('hdfs://nnhost:nnport/expense') FORMAT 'csv' (DELIMITER '|'); ``` 可以直接查询该外部表: ``` etl=# select * from ext_expenses; name | date | amount | category | desc1 -------+------------+--------+----------+--------- john | 2017-01-20 | 100 | travel | nothing tom | 2016-12-01 | 300 | taxi | nothing marry | 2017-01-21 | 1000 | travel | nothing kurt | 2016-12-02 | 800 | taxi | nothing (4 rows) ``` 有些时候,输入的text/csv文件有一些格式错误,默认情况下,出现错误时,整个加载会失败。如果数据量很大的话,修正错误再重新加载会浪费很多时间。如果错误可以接受的话,我们可以通过定义error table的方法隔离错误的行,把错误的行放到一个单独的error table中,而正常加载所有的正确行。下面是一个例子。 ``` CREATE EXTERNAL TABLE ext_expenses ( name text, date date, amount float4, category text, desc1 text ) LOCATION ('hdfs://nnhost:nnport/expense') FORMAT 'csv' (DELIMITER '|') LOG ERRORS INTO expense_errortable SEGMENT REJECT LIMIT 10 ROWS; ``` 上面那条语句指定了error table为expense_errortable,系统会自动创建该表,该表为外部表。SEGMENT REJECT LIMIT指的是如果有超过10行的错误,加载将报错退出。 如果一个CSV文件包含错误的格式,error table的rawdata列可能包含几个合并的错误行。例如,如果一个text列的值少了一个结束的引号,后面的行(包含换行符)将会被当作那个列的值处理。当这种情况发生时,并且该值超过64K大小时,OushuDB 会把64K大小的值放入error table中做为一个单独的行,继续处理后面的行。如果这种情况发生多次,加载会失败,OushuDB会报"rejected N or more rows"错退出。 ### ORC格式外表 对于ORC格式数据,用户可定义ORC格式外表导入。 ``` CREATE EXTERNAL TABLE ext_expenses (name text, date date, amount float4, category text, desc1 text) LOCATION ('hdfs://nnhost:nnport/expense') FORMAT 'orc'; ``` * orc 格式外表不支持 error table; * 支持 hive 0.11 和 0.12 详情参考 [ORC Specification](https://orc.apache.org/specification) ## 加载数据 下面这条语句可以很简单的加载ext_expenses表中的数据到expenses表中。 ``` CREATE TABLE expenses AS SELECT * FROM ext_expenses; ``` 用户也可以通过把建表语句以及加载数据分开: ``` CREATE TABLE expenses(name text, date date, amount float4, category text, desc1 text); INSERT INTO expenses SELECT * FROM ext_expenses; ``` 根据读取数据文件本身的规模,OushuDB 会根据用户配置自动调整数据读取的并行度,实现动态并行的数据加载。