Hive 从文件名创建表分区

Posted

技术标签:

【中文标题】Hive 从文件名创建表分区【英文标题】:Hive Create Table Partitions from file name 【发布时间】:2015-12-02 18:28:05 【问题描述】:

Hadoop 新手。我知道如何在 Hive 中创建表(语法) 创建具有 3 个分区键的表。但密钥在文件名中。

文件名示例:ServerName_ApplicationName_ApplicationName.XXXX.log.YYYY-MM-DD

一个目录中有数百个文件想要创建一个具有以下分区键的表,来自文件名:ServerName,ApplicationName,Date,并将所有文件加载到表中 Hive 脚本将是首选,但对任何其他想法持开放态度

(文件是 CSV。我知道文件的架构(列定义))

【问题讨论】:

【参考方案1】:

我假设文件名的格式为 ServerName_ApplicationName.XXXX.log.YYYY-MM-DD(删除了第二个“应用程序名”,假设它是一个错字)。

根据原始文件的内容创建一个表格。有点像..

create external table default.stack
(col1 string,
 col2 string,
 col3 string,
 col4 int,
 col5 int
 )
 ROW FORMAT DELIMITED
 FIELDS terminated  by ','
 STORED AS INPUTFORMAT                                                  
  'org.apache.hadoop.mapred.TextInputFormat'                           
OUTPUTFORMAT                                                           
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat' 
 location 'hdfs://nameservice1/location1...';

在另一个位置创建另一个分区表,例如

create external table default.stack_part
(col1 string,
 col2 string,
 col3 string,
 col4 int,
 col5 int
 )
 PARTITIONED BY ( servername string, applicationname string, load_date string)
 STORED as AVRO  -- u can choose any format for the final file
 location 'hdfs://nameservice1/location2...';

使用以下查询从基表插入分区表:

set hive.exec.dynamic.partition.mode=nonstrict;
SET hive.exec.compress.output=true;
set hive.exec.parallel=true;
SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec;

Insert overwrite table default.stack_part
partition ( servername, applicationname, load_date)
select *, 
       split(reverse(split(reverse(INPUT__FILE__NAME),"/")[0]),"_")[0] as servername
       ,split(split(reverse(split(reverse(INPUT__FILE__NAME),"/")[0]),"_")[1],'[.]')[0] as applicationname
       ,split(split(reverse(split(reverse(INPUT__FILE__NAME),"/")[0]),"_")[1],'[.]')[3] as load_date
from default.stack;

我已经测试过了,它可以工作。

【讨论】:

以上是关于Hive 从文件名创建表分区的主要内容,如果未能解决你的问题,请参考以下文章

从非分区表创建分区 hive 表

带有 hive 的 pyspark - 无法正确创建分区并从数据框中保存表

从 hdfs 中删除文件是不是会删除相应的 hive 外部表分区?

使用路径中没有列名的分区创建 Hive 外部表?

创建按一/多列分区的 BigQuery 外部表

在 hive 的外部表中创建分区