Azure ADF DataFlow 在写入行时失败
Posted
技术标签:
【中文标题】Azure ADF DataFlow 在写入行时失败【英文标题】:Azure ADF DataFlow failed while writing rows 【发布时间】:2021-09-10 14:54:26 【问题描述】:我在 Azure 数据工厂中有将 parquet 文件转换为 csv 的数据流。 当我有 10 个大小为 10 KB 的文件时,它可以工作。 但是,如果我有 3 个大小为 22 KB 的文件,则会出现“写入行时失败”错误。
你知道什么是可能的解决方案吗?
【问题讨论】:
【参考方案1】:提供的信息不充分。您可以尝试增加核心尺寸,如果对您有帮助,还可以查看下面的博客。
Click Here
【讨论】:
但是,这不是文件大小的问题,而是“标题”列的问题。可能有些行包含禁止字符。【参考方案2】:Parquet 文件标准不允许某些特殊字符。使用选择变换或接收变换将这些列重新映射为不同的名称。您也可以使用模式匹配来重命名所有此类列。
【讨论】:
Databricks 可以读取并轻松转换为 csv。以上是关于Azure ADF DataFlow 在写入行时失败的主要内容,如果未能解决你的问题,请参考以下文章
使用 ADF 将 azure blob 文件复制到 azure synapse
如何从 azure ADF 管道运行 Azure CLI 命令?
如何在 Azure ADF Pipelines 中更改 ADF 接收器数据集 Parquet 文件数据类型
Azure 架构师学习笔记-Azure Logic Apps- Logic Apps调用ADF