将 Fabric 流中的重复事件复制到 Firebase-> Google Bigquery 流中
Posted
技术标签:
【中文标题】将 Fabric 流中的重复事件复制到 Firebase-> Google Bigquery 流中【英文标题】:Duplicated events from Fabric stream into Firebase-> Google Big Query streaming 【发布时间】:2019-03-09 16:06:21 【问题描述】:我们注意到,来自 firebase 的原始 Google Big Query (gbq) 数据出现重复。经过短暂的调查,很明显,该问题是由 Fabric 引起的——相同的事件因 firebase_event_origin 字段(app|fab)的值而异。我没有找到如何在 GBQ Firebase 导入中停止来自结构流的事件的答案。
有人解决了这个问题吗?
图片:
【问题讨论】:
【参考方案1】:嗯,这很容易 - 我们的编码器设置了 Fabric 和 Firebase 之间的集成。因此,要停止接收 Firebase 事件,您只需转到 Firebase 控制台设置,打开“集成”窗格并继续到“结构”。您只需在此处关闭选项“将 Fabric 事件发送到 Google Analytics for Firebase”。
screenshot
【讨论】:
以上是关于将 Fabric 流中的重复事件复制到 Firebase-> Google Bigquery 流中的主要内容,如果未能解决你的问题,请参考以下文章
将从 Fabric 创建的自定义事件迁移到 Firebase?
有没有办法将生成的 groupby 流加入到 kafka-spark 结构化流中的原始流?