收集 MongoDB 增量数据并推送到 kafka?

Posted

技术标签:

【中文标题】收集 MongoDB 增量数据并推送到 kafka?【英文标题】:Collecting MongoDB delta data and pushing to kafka? 【发布时间】:2017-06-28 16:47:07 【问题描述】:

我们有一个 mongodb 数据库,它不断从不同来源获取数据,我想继续将这些数据作为生产者实时推送到 kafka,以便我可以为我的分析集成 spark kafka。让我知道是否有人对此做过任何事情,或者是否有任何可能的解决方案。 Flume 不支持 mongodb 作为源,sqoop 用于 RDBMS。

【问题讨论】:

【参考方案1】:

您可以为此使用 Kafka Connect: https://www.confluent.io/product/connectors/

如上所述,至少有 2 个可用的 mongodb 源连接器:

https://github.com/DataReply/kafka-connect-mongodb

https://github.com/teambition/kafka-connect-mongo

【讨论】:

以上是关于收集 MongoDB 增量数据并推送到 kafka?的主要内容,如果未能解决你的问题,请参考以下文章

python 生成随机数据并推送到elasticsearch

如何设置状态并推送到数组?

如何使用 pandas 读取并推送到 SQL 数据库中的文件不断获取数据

项目配置打包项目镜像并推送到镜像仓库

在 Web 应用程序中接收数据并推送到客户端浏览器的套接字

Oracle PL/SQL 程序在源表中拆分逗号分隔的数据并推送到目标表中