python写hive的UDF问题
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python写hive的UDF问题相关的知识,希望对你有一定的参考价值。
我用python写UDF函数时总报错:
python:
import sys
def main():
for line in sys.stdin:
line = line.strip()
fields = line.split('\t')
if fields[2] is None or fields[2]=""
fields[2] = "o"
print '%s\t%s\t%s' % (fields[0],fields[1],fields[2])
if __name__ == "__main__":
main()
hql语句:
select transform(device_id,device_type,gender) using 'python gender.py' as(device_id,device_type,gender) from dm_device_gender where year=2017 and month=02 and day=23 limit 20;
报错:
Error: java.lang.RuntimeException: org.apache.hadoop.hive.ql.metadata.HiveException: Hive Runtime Error while processing row "device_id":"pom7vptz-wnu7-tvxj-xeqm-7anh1ga5vo9x","device_type":"gaid","package_names":"com.k12.equivalenceTiles","source":"m:dsp","gender":"f","ratio":"0.5002738483938325","tag":"calc","year":"2017","month":"02","day":"23"
at org.apache.hadoop.hive.ql.exec.mr.ExecMapper.map(ExecMapper.java:195)
at org.apache.hadoop.mapred.MapRunner.run(MapRunner.java:54)
at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:455)
请问大神这是什么原因?
python改成这样就没事:
import sys
def main():
for line in sys.stdin:
line = line.strip()
fields = line.split('\t')
if fields[2] is None or fields[2]=""
fields[2] = "o"
try:
print '%s\t%s\t%s' % (fields[0],fields[1],fields[2])
except ValueError:
continue
if __name__ == "__main__":
main()
但是好像缺少数据。
知道什么原因的话说一下,谢谢 参考技术B hive的jdbc包,jar包名字大概是hive-jdbc.jar,你找找hive包下带Jdbc的看看。追问
这应该和jar包没问题,用的公司服务器上的jar包。
检查python写的hive udf中的错误
【中文标题】检查python写的hive udf中的错误【英文标题】:Check the error in the hive udf written in python 【发布时间】:2017-10-18 19:43:36 【问题描述】:我使用 python 编写了一个 hive udf,但是在使用 udf 运行我的查询时。我在日志中收到以下错误-
错误:java.lang.RuntimeException:关闭时 Hive 运行时错误 操作员:[错误 20003]:尝试关闭 运行您的自定义脚本的操作员。
如何检查我的 python 脚本崩溃的错误,因为 map reduce 日志只是向我显示了作业中的错误,如上所示。
【问题讨论】:
您使用哪个客户端进行查询?直线? 是的,我正在使用 beeline 和它的 python udf 【参考方案1】:尝试使用 UDF as 执行您的查询
hive --hiveconf hive.root.logger=DRFA --hiveconf hive.log.dir=./logs --hiveconf hive.log.level=DEBUG -e "query"
并检查在日志文件夹中创建的日志文件。这将是一个详细的日志。在执行命令之前确保日志文件夹存在。
【讨论】:
以上是关于python写hive的UDF问题的主要内容,如果未能解决你的问题,请参考以下文章
带有文件 Json 的 Hive 中的 UDF python