无法在 AWS 中使用大象鸟和 Hive 反序列化 Protobuf (2.6.1) 数据
Posted
技术标签:
【中文标题】无法在 AWS 中使用大象鸟和 Hive 反序列化 Protobuf (2.6.1) 数据【英文标题】:Can't deserialize Protobuf (2.6.1) data using elephant-bird and Hive in AWS 【发布时间】:2017-03-31 12:07:33 【问题描述】:我无法使用带有 Hive 的大象鸟 4.14 反序列化其中包含重复字符串的 protobuf 数据。这似乎是因为重复字符串功能仅在 Protobuf 2.6 中可用,而在 Protobuf 2.5 中不可用。在 AWS EMR 集群中运行我的 Hive 查询时,它使用与 AWS Hive 捆绑的 Protobuf 2.5。即使在明确添加 Protobuf 2.6 jar 之后,我也无法摆脱这个错误。我想知道如何让 hive 使用我明确添加的 Protobuf 2.6 jar。
以下是使用的配置单元查询:
add jar s3://gam.test/hive-jars/protobuf-java-2.6.1.jar;
add jar s3://gam.test/hive-jars/GAMDataModel-1.0.jar;
add jar s3://gam.test/hive-jars/GAMCoreModel-1.0.jar;
add jar s3://gam.test/hive-jars/GAMAccessLayer-1.1.jar;
add jar s3://gam.test/hive-jars/RodbHiveStorageHandler-0.12.0-jarjar-final.jar;
add jar s3://gam.test/hive-jars/elephant-bird-core-4.14.jar;
add jar s3://gam.test/hive-jars/elephant-bird-hive-4.14.jar;
add jar s3://gam.test/hive-jars/elephant-bird-hadoop-compat-4.14.jar;
add jar s3://gam.test/hive-jars/protobuf-java-2.6.1.jar;
add jar s3://gam.test/hive-jars/GamProtoBufHiveDeserializer-1.0-jarjar.jar;
drop table GamRelationRodb;
CREATE EXTERNAL TABLE GamRelationRodb
row format serde "com.amazon.hive.serde.GamProtobufDeserializer"
with serdeproperties("serialization.class"=
"com.amazon.gam.rodb.model.RepeatedRelationshipWrapperProto$RepeatedRelationshipWrapper")
STORED BY 'com.amazon.rodb.hadoop.hive.RodbHiveStorageHandler' TBLPROPERTIES
("file.name" = 'GAM_Relationship',"file.path" ='s3://pathtofile/');
select * from GamRelationRodb limit 10;
Protobuf 文件格式如下:
message RepeatedRelationshipWrapper
repeated relationship.Relationship relationships = 1;
message Relationship
required RelationshipType type = 1;
repeated string ids = 2;
enum RelationshipType
UKNOWN_RELATIONSHIP_TYPE = 0;
PARENT = 1;
CHILD = 2;
下面是运行查询时抛出的运行时异常:
Exception in thread "main" java.lang.NoSuchMethodError: com.google.protobuf.LazyStringList.getUnmodifiableView()Lcom/google/protobuf/LazyStringList;
at com.amazon.gam.model.RelationshipProto$Relationship.<init>(RelationshipProto.java:215)
at com.amazon.gam.model.RelationshipProto$Relationship.<init>(RelationshipProto.java:137)
at com.amazon.gam.model.RelationshipProto$Relationship$1.parsePartialFrom(RelationshipProto.java:239)
at com.amazon.gam.model.RelationshipProto$Relationship$1.parsePartialFrom(RelationshipProto.java:234)
at com.google.protobuf.CodedInputStream.readMessage(CodedInputStream.java:309)
at com.amazon.gam.rodb.model.RepeatedRelationshipWrapperProto$RepeatedRelationshipWrapper.<init>(RepeatedRelationshipWrapperProto.java:126)
at com.amazon.gam.rodb.model.RepeatedRelationshipWrapperProto$RepeatedRelationshipWrapper.<init>(RepeatedRelationshipWrapperProto.java:72)
at com.amazon.gam.rodb.model.RepeatedRelationshipWrapperProto$RepeatedRelationshipWrapper$1.parsePartialFrom(RepeatedRelationshipWrapperProto.java:162)
at com.amazon.gam.rodb.model.RepeatedRelationshipWrapperProto$RepeatedRelationshipWrapper$1.parsePartialFrom(RepeatedRelationshipWrapperProto.java:157)
at com.amazon.gam.rodb.model.RepeatedRelationshipWrapperProto$RepeatedRelationshipWrapper$Builder.mergeFrom(RepeatedRelationshipWrapperProto.java:495)
at com.amazon.gam.rodb.model.RepeatedRelationshipWrapperProto$RepeatedRelationshipWrapper$Builder.mergeFrom(RepeatedRelationshipWrapperProto.java:355)
at com.google.protobuf.AbstractMessage$Builder.mergeFrom(AbstractMessage.java:337)
at com.google.protobuf.AbstractMessage$Builder.mergeFrom(AbstractMessage.java:267)
at com.google.protobuf.AbstractMessageLite$Builder.mergeFrom(AbstractMessageLite.java:170)
at com.google.protobuf.AbstractMessage$Builder.mergeFrom(AbstractMessage.java:882)
at com.google.protobuf.AbstractMessage$Builder.mergeFrom(AbstractMessage.java:267)
at com.twitter.elephantbird.mapreduce.io.ProtobufConverter.fromBytes(ProtobufConverter.java:66)
at com.twitter.elephantbird.hive.serde.ProtobufDeserializer.deserialize(ProtobufDeserializer.java:59)
at com.amazon.hive.serde.GamProtobufDeserializer.deserialize(GamProtobufDeserializer.java:63)
at org.apache.hadoop.hive.ql.exec.FetchOperator.getNextRow(FetchOperator.java:502)
at org.apache.hadoop.hive.ql.exec.FetchOperator.pushRow(FetchOperator.java:428)
at org.apache.hadoop.hive.ql.exec.FetchTask.fetch(FetchTask.java:146)
at org.apache.hadoop.hive.ql.Driver.getResults(Driver.java:2098)
at org.apache.hadoop.hive.cli.CliDriver.processLocalCmd(CliDriver.java:252)
at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:183)
at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:399)
at org.apache.hadoop.hive.cli.CliDriver.executeDriver(CliDriver.java:776)
at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:714)
at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:641)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
at org.apache.hadoop.util.RunJar.main(RunJar.java:136)
【问题讨论】:
【参考方案1】:Protobuf 是一个脆弱的库。它可能是跨版本 2.x 的线格式兼容,但 protoc 生成的类只会链接到与 protoc 编译器版本完全相同的 protobuf JAR。
这意味着,从根本上说,您无法更新 protobuf,除非在所有依赖项中编排它。 Great Protobuf upgrade in 2013 是 Hadoop、Hbase、Hive 和 c 升级的时候,之后:每个人都冻结在 v 2.5,可能在 Hadoop 2.x 代码线的整个生命周期中,除非它全部被遮蔽或 Java 9 隐藏了问题.
相比 Guava 和 Jackson 的升级,我们更害怕 protobuf 更新,因为后者只会破坏每个库,而不是有线格式。
观看 HADOOP-13363 了解有关 2.x 升级的主题,观看 HDFS-11010 了解在 hadoop 主干中升级到 protobuf 3 的问题。这很麻烦,因为它确实改变了线路格式、protobuf-json 编组中断和其他东西。
最好只是总结一下,“发现缺乏 protobuf 代码的二进制兼容性”,并坚持使用 protobuf 2.5。对不起。
您可以获取您想要使用的整个库堆栈,使用更新的 protoc 编译器重建它们,匹配 protobuf.jor,以及您需要应用的任何其他补丁。我只会向大胆的人推荐这个——但我对结果很好奇。如果您确实尝试过,请告诉我们结果如何
延伸阅读fear of dependencies
【讨论】:
以上是关于无法在 AWS 中使用大象鸟和 Hive 反序列化 Protobuf (2.6.1) 数据的主要内容,如果未能解决你的问题,请参考以下文章
将 protobuf 3 与 Hive 和 Elephant-Bird 一起使用
AWS Glue:如何将嵌套的 Hive 结构扩展到 Dict?
在 HIVE 中运行 UDF 以进行自定义反序列化时出现 OWN_TASK_FAILURE。