具有预训练主干的 U-net:在哪里进行跳过连接?

Posted

技术标签:

【中文标题】具有预训练主干的 U-net:在哪里进行跳过连接?【英文标题】:U-net with pre-trained backbones: where to make skip connections? 【发布时间】:2019-08-05 11:59:32 【问题描述】:

我正在尝试使用 PyTorch 实现 U-Net,在编码器路径中使用预训练的网络。

最初的 U-Net 论文从头开始训练了一个网络。当使用预先训练的主干时,是否有任何资源或原则关于应该放置跳过连接的位置?

我已经找到了一些示例(例如this repo),但没有任何理由选择功能。

【问题讨论】:

【参考方案1】:

在原来的U-Net paper 特征中,就在 Max-Pool 层用于跳过连接之前。

逻辑与预训练的主干完全相同:在每个空间分辨率下,选择最深的特征层。感谢 github 上的 qubvel 在issue 中指出这一点。

【讨论】:

以上是关于具有预训练主干的 U-net:在哪里进行跳过连接?的主要内容,如果未能解决你的问题,请参考以下文章

U-Net 语义分割模型在新图像上测试时失败

Pytorch不同层设置不同学习率

Pytorch不同层设置不同学习率

我在哪里可以获得 BERT 的预训练词嵌入?

Pytorch - 跳过计算每个时期的预训练模型的特征

U-Net图像语义分割实战:训练自己的数据集