arcgis如何进行权重的叠加分析?我的是多图层的叠加分析!求详细点的过程操作!
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了arcgis如何进行权重的叠加分析?我的是多图层的叠加分析!求详细点的过程操作!相关的知识,希望对你有一定的参考价值。
这个我做过。如果你的矢量图层数据质量较好(没有拓扑错误)的话,直接用矢量数据做就可以。方法是:1、对每一个用到的数据图层,添加属性(如渗透系数层加个字段“stxs”,并在该字段下加入等级属性,然后再添加一个字段“stxsfs”并加入分数);2、对所有用到的图层进行叠加union(两两叠加),这样最后叠加得到的图层中就包含了所有有用的数据;3、在最后得到的图层中加入一个字段,左键选中这一列,右键点击这一列的列名,选择calculator,在弹出的对话框中输入计算公式就可以了。如果数据源质量不是很好,不容易去除拓扑错误,可以在上述的第一步后,把矢量数据转成栅格数据,然后进行叠加。 参考技术A 可以把层转为栅格 做栅格叠置。具体哪一步,我可以教你。你如果问不会重分类,还好回答。你用的按个生态模型,有几个因子,哪几个因子?权重。追问
我是对地下水易污性评价(drastic)!就是对一个地区的渗透系数、土壤类型等一些属性,进行分级分区,然后给予每个等级相应的分数,每个属性给予相应的权重,然后进行叠加计算出分数!这个过程都怎么操作啊?
Batch Normalization
深度神经网络难训练一个重要的原因就是深度神经网络涉及很多层的叠加,每一层的参数变化都会导致下一层输入数据分布的变化,随着层数的增加,高层输入数据分布变化会非常剧烈,这就使得高层需要不断适应低层的参数更新。为了训练好模型,我们需要谨慎初始化网络权重,调整学习率等。
原理分析
为了解决这个问题,一个比较直接的想法就是对每层输入数据都进行标准化。Batch Normalization确实就是这样做的。Batch Normalization的基本思想就是:将每一批次数据输入下一层神经元之前,先对其做平移和伸缩变换,将输入数据的分布规范为固定区间范围内的标准分布。Batch Normalization的公式表示如下:
这时我们可能会有些疑问,第一步不是已经得到标准化分布了吗,为什么还要再使用第二步变回去呢?
答案是:为了保证模型的表达能力,第二步是必不可少的。
我们发现,第一步将每一层的输入数据都规范化为均值为0,标准差为1的分布。那么我们仔细想一下,这样做会带来什么问题?
每一层神经元都在不断的学习,但是无论其如何努力(参数如何变化),其输出的结果在交给下一层神经元之前都会被强制规范化到均值为0,标准差为1的分布。那我们还学个鬼啊!这样训练出来的神经网络模型表达能力自然很差。
所以,我们需要使用第二步将规范化后的数据再平移缩放到均值为$\\beta $,标准差为$\\gamma $的分布,充分考虑每一层神经元的学习结果。当然,这两个参数是可学习的,每一层的和会有所不同。
总结
训练快,还能提升性能,为啥不用。TensorFlow、Keras和Pytorch都集成了Batch Normalization的函数,可直接调用。
以上是关于arcgis如何进行权重的叠加分析?我的是多图层的叠加分析!求详细点的过程操作!的主要内容,如果未能解决你的问题,请参考以下文章
请问如何用ARCGIS将高程、坡度、坡向、XXX保护区等多样因子根据权重进行综合叠加分析,希望详细些