Spark 流 + Accumulo - 序列化 BatchWriterImpl

Posted

技术标签:

【中文标题】Spark 流 + Accumulo - 序列化 BatchWriterImpl【英文标题】:Spark streaming + Accumulo - Serialize BatchWriterImpl 【发布时间】:2017-05-08 07:55:30 【问题描述】:

我正在寻找 Spark Streaming + Accumulo 连接器和完整的使用示例。

目前我正在尝试将 Spark Streaming 结果写入 Accumulo 表,但我收到了 BatchWriter 的 NotSerializableException。有人可以指出如何序列化 BatchWriter 的示例吗?以下代码基于 Accumulo 文档。

当前代码:

val accumuloInstanceName = "accumulo"
val zooKeepers = "localhost:2181"
val instance = new ZooKeeperInstance(accumuloInstanceName, zooKeepers)
val accumuloUser = programOptions.accumuloUser()
val accumuloPassword = programOptions.accumuloPassword()
val passwordToken = new PasswordToken(accumuloPassword)
val connector = instance.getConnector(accumuloUser, passwordToken)

val accumuloBatchWriterConfig = new BatchWriterConfig
val accumuloBatchWriterMaxMemory = 32 * 1024 * 1024
accumuloBatchWriterConfig.setMaxMemory(accumuloBatchWriterMaxMemory)
val accumuloBatchWriter = connector.createBatchWriter("Data", accumuloBatchWriterConfig)
fullMergeResultFlatten.foreachRDD(recordRDD =>
  recordRDD.foreach(record => 
    val mutation = new Mutation(Longs.toByteArray(record.timestamp))
    mutation.put("value", "", new Value(Longs.toByteArray(record.value)))
    mutation.put("length", "", new Value(Longs.toByteArray(record.length)))
    accumuloBatchWriter.addMutation(mutation)
  )
)

在运行时发生错误:

17/05/05 16:55:25 ERROR util.Utils: Exception encountered
java.io.NotSerializableException: org.apache.accumulo.core.client.impl.BatchWriterImpl
        at java.io.ObjectOutputStream.writeObject0(ObjectOutputStream.java:1183)
        at java.io.ObjectOutputStream.defaultWriteFields(ObjectOutputStream.java:1547)
        at java.io.ObjectOutputStream.writeSerialData(ObjectOutputStream.java:1508)

我想这是很常见的情况,但我找不到任何简单的 spark 流 + accumulo 示例。

【问题讨论】:

【参考方案1】:

正如 elserj 指出的,序列化连接对象通常不是正确的模式。我看到的模式是直接使用 RDD.foreachPartition() 从 Spark 工作节点发起连接。这很好,因为它允许您为每批工作创建一个连接(而不是为每个单独的记录创建一个几乎从来没有效率的新连接)。

例子:

fullMergeResultFlatten.foreachRDD(recordRDD => 
  recordRDD.foreachPartition(partitionRecords => 
    // this connection logic is executed in the Spark workers
    val accumuloBatchWriter = connector.createBatchWriter("Data", accumuloBatchWriterConfig)
    partitionRecords.foreach( // save operation )
    accumuloBatchWriter.close()
  )
)

【讨论】:

【参考方案2】:

您不能序列化 BatchWriter 类。我没有关于如何修复代码的建议,但我可以说尝试序列化该类不是正确的方法。

【讨论】:

以上是关于Spark 流 + Accumulo - 序列化 BatchWriterImpl的主要内容,如果未能解决你的问题,请参考以下文章

用于时间序列处理的 Spark 流(按时间间隔划分数据)

Accumulo——添加一个新节点

Spark:对象不可序列化

Apache Accumulo

日期出现在Accumulo vs Solr吗?

无法启动geomesa-accumulo