torch中的copy()和clone()

Posted jfdwd

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了torch中的copy()和clone()相关的知识,希望对你有一定的参考价值。

torch中的copy()和clone()

1、torch中的copy()和clone()

y = torch.Tensor(2,2):copy(x) ---
1

修改y并不改变原来的x

y = x:clone()
1


修改y也不改变x

y = x
1

修改y这个时候就开始改变x了
注意,官网中Returns a clone of a tensor. The memory is copied.内存被复制,也即重新分配了一份内存个y,所以y改变x不改变,对于copy是一样的.copy允许复制的维度不一样,但是元素个数必须是相同的。
对于Python中的深浅拷贝之类的,看连接链接
Python中的拷贝来讲,例子如下


对于数字赋值和列表赋值是有很大区别的

torch中对于直接赋值的这种操作一定要小心,先看看是不是需要直接赋值,还是重新开辟一块内存来存放
2
torch中的type()函数,如果没有传入参数,表示查看Tensor的数据类型
如果传入了参数,表示将Tensor转换为想要的数据类型,数据类型由参数来指定

3 torch中的image的scale函数也是输入参数不同最后的scale方法也是不同的,参考下图说明

4、torch中的Tensor所有操作例如narrow等操作,都是在原来的Tensor的基础上进行的,所以如果想要真正的复制一个Tensor就用copy和clone,如果用narrow这种操作之后经常会导致内存不连续,导致后面很多操作失效,这时候用copy和clone复制一下即可。
---------------------
作者:枯叶蝶KYD
来源:CSDN
原文:https://blog.csdn.net/u013548568/article/details/79145401
版权声明:本文为博主原创文章,转载请附上博文链接!

以上是关于torch中的copy()和clone()的主要内容,如果未能解决你的问题,请参考以下文章

ruby中的复制 dup clone

Clone() vs Copy constructor-在java中推荐[重复]

numpy.copy和torch.tensor的cpu/gpu

rust copy 和 clone 区别

torch.tensor() 和 torch.to_tensor() 的区别

Pytorch:copy.deepcopy 与 torch.tensor.contiguous()?