IndexError:在pyspark shell上使用reduceByKey操作时列出索引超出范围

Posted

技术标签:

【中文标题】IndexError:在pyspark shell上使用reduceByKey操作时列出索引超出范围【英文标题】:IndexError: list index out of range while using reduceByKey operation on pyspark shell 【发布时间】:2019-04-15 03:36:18 【问题描述】:

目标:从 youtube 数据集中找到最高的视频类别

使用:Pyspark 外壳

预期:类别及其出现次数

实际:使用 reduceBykey 作为 IndexError 时出错:列表索引超出范围

我试过下面的代码:

data="/Users/sk/Documents/GitRepository/Udemy_BigData_spark/1.txt"
input = sc.textFile(data)
results = input.map(lambda x: (x.split(‘\t')[3].encode("utf-8").replace('"', '').replace("'", '')))results.take(20)

这给出了以下结果:

['Comedy', 'Comedy', 'Entertainment', 'People & Blogs', 'People &
Blogs', 'Music', 'Comedy', 'People & Blogs', 'Entertainment',
'Entertainment', 'Entertainment', 'Entertainment', 'Entertainment',
'Entertainment', 'Entertainment', 'Entertainment', 'Entertainment',
'Entertainment', 'Entertainment', 'Entertainment']


results=results.map(lambda x: (x,1))

这给出了以下结果:

[('Comedy', 1), ('Comedy', 1), ('Entertainment', 1), ('People & Blogs', 1), ('People & Blogs', 1), ('Music', 1), ('Comedy', 1), ('People & Blogs', 1), ('Entertainment', 1), ('Entertainment', 1), ('Entertainment', 1), ('Entertainment', 1), ('Entertainment', 1), ('Entertainment', 1), ('Entertainment', 1), ('Entertainment', 1), ('Entertainment', 1), ('Entertainment', 1), ('Entertainment', 1), ('Entertainment', 1)]


results=results.reduceByKey(lambda x, y: x + y)    
results.take(20)

这给出了一个巨大的错误:(

我希望它显示如下结果:

(179049,Music), (127674,Entertainment), (87818,Comedy), (73293,Film &
Animation), (67329,Sports)

【问题讨论】:

【参考方案1】:

我写的代码是在scala中的;

val ds = Seq("A", "B", "C", "A", "B", "C", "D", 
             "E", "F", "G", "A")
  .toDF.as[String].map(x => (x, 1))
ds.groupByKey(x => x._1)
  .reduceGroups((l, r) => (l._1, l._2+r._2))
  .show

输出:

+-----+------------------------------+
|value|ReduceAggregator(scala.Tuple2)|
+-----+------------------------------+
|    F|                        [F, 1]|
|    E|                        [E, 1]|
|    B|                        [B, 2]|
|    D|                        [D, 1]|
|    C|                        [C, 2]|
|    A|                        [A, 3]|
|    G|                        [G, 1]|
+-----+------------------------------+

【讨论】:

嘿 Elior,我正在寻找 python 代码。使用 scala 我可以得到这个工作。但是作业是与 pyspark 一起工作的 :(

以上是关于IndexError:在pyspark shell上使用reduceByKey操作时列出索引超出范围的主要内容,如果未能解决你的问题,请参考以下文章

pyspark shell 未以伪分布式模式启动

如何使用 matplotlib 使用 shell 绘制 pyspark sql 结果

在 Pyspark Interactive Shell 中查找列的增量

如何启动 pyspark 并进入 ipython shell

PySpark shell 命令不产生任何输出

在 Pyspark Shell 中访问用户定义的模块(ModuleNotFoundError: No module named)