CString 赋值的区别
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了CString 赋值的区别相关的知识,希望对你有一定的参考价值。
CString s("hello");//1
CString s = "hello";//2
CString s;//3
s.Format("hello");
这三种赋值的效果(结果)是不是完全一样的?如果有,解释一下,先谢谢啦
CStringcstr(str.c_str());//或者CString cstr(str.data());初始化时才行
cstr=str.c_str();或者cstr=str.data();
str=cstr.GetBuffer(0); //CString -> string
cstr.format("%s", str.c_str()); //string->CString
cstr.format("%s", str.data()); //string->CString
str = LPCSTR(cstr); //CString->string
/*c_str()和data()区别是:前者返回带\'/0\'的字符串,后者则返回不带\'/0\'的字符串*/
2、CString和int的转换inti=123;
CStringstr;
str.format("%d",i);//int->CString 其他的基本类型转化类似
i=atoi(str);//CString->int 还有(atof,atol)
3、char*和CString的转换CStringcstr="ksarea";
char* ptemp=cstr.getbuffer(0);
char* str;
strcpy(str,ptemp);//CString->char*
cstr.releasebuffer(-1);
char*str="lovesha";
CStringcstr=str;//char*->CString string类型不能直接赋值给CString至于int与float、string与char*之间的转化可以使用强制转化,或者标准库函数进行。对于CString与其他类型的转化方法很多,但其实都殊途同归,朝着一个方向即将类型首先转化为char*类型,因为char*是不同类型之间的桥梁。得到char*类型,转化为其他类型就非常容易了。 参考技术A 要说CString 真的很复杂,里头有好多东西要讲的
第一个,以一个const char p[]的头指针,作为参数新创建一个对象
结果是出现了两个 "hello"
第二个,将现在内存中的 "hello" 的引用地址 传给CString对象,
内存中只有一个 "hello"
第三个,其实我觉得等效第二个,先创建一个基本对象,然后只是改了个地址指针。。只是第三个可以在Format方法中重新组装一个字符串,通过格式符 只是我觉得,猜的本回答被提问者采纳 参考技术B 楼上的,你确定第2种方法中=是传递引用地址,而不是生成拷贝么 参考技术C 是完全一样的
因为这样就不用解释啦...
哈哈
pytorch中张量加法赋值和赋值的区别
【中文标题】pytorch中张量加法赋值和赋值的区别【英文标题】:Difference between tensor addition assignment and assignment in pytorch 【发布时间】:2021-10-06 10:55:01 【问题描述】:我发现 pytorch 对待张量赋值和加法赋值的方式不同。示例如下所示
x = torch.tensor(3.0)
print(id(x))
x = x + 5
print(id(x))
结果是
1647247869184
1647248066816
如果我们运行以下代码
x = torch.tensor(3.0)
print(id(x))
x += 5
print(id(x))
,结果是
1647175563712
1647175563712
从这两个例子中,我们可以看出使用加法赋值不会改变变量地址,而加法会改变地址。这对训练神经网络有影响。例如,在 pytorch 教程“什么是torch.nn 到底是什么?”中,有一段代码如下所示
from IPython.core.debugger import set_trace
lr = 0.5 # learning rate
epochs = 2 # how many epochs to train for
for epoch in range(epochs):
for i in range((n - 1) // bs + 1):
# set_trace()
start_i = i * bs
end_i = start_i + bs
xb = x_train[start_i:end_i]
yb = y_train[start_i:end_i]
pred = model(xb)
loss = loss_func(pred, yb)
loss.backward()
with torch.no_grad():
weights -= weights.grad * lr
bias -= bias.grad * lr
weights.grad.zero_()
bias.grad.zero_()
我们可以看到在 torch.no_grad() 上下文中,使用了减号赋值。如果我们将减号赋值更改为如下所示的正常赋值,则代码不起作用。
with torch.no_grad():
weights = weights - weights.grad * lr
bias = bias - bias.grad * lr
weights.grad.zero_()
bias.grad.zero_()
现在,我知道如果我们不想更改变量,应该使用 += 或 -=。但是,在python中,+=和=没有区别,两者都改变变量地址。示例如下:
x = 3
print(id(x))
x += 1
print(id(x))
x = x + 1
print(id(x))
140736084850528
140736084850560
140736084850592
我的问题是
为什么 pytorch 中存在 += 和 = 的区别?这是故意的吗? 允许差异存在有什么好处?【问题讨论】:
【参考方案1】:+=
是一个就地操作,即它修改原始变量的内容而不复制它(保留相同的内存地址)。
其他例子:
x *= 3 X[…] = … X.add_(1)在weights = weights - weights.grad * lr
中,它不起作用,因为您正在创建一个新变量(地址不同,只是它也有名称权重)。
顺便说一句,在pytorch的optimizers中是这样实现的:
weights.add_(weights.grad, alpha=-lr)
【讨论】:
@Andy 如果解决了您的问题,您可以点击“正确符号”来接受答案:)以上是关于CString 赋值的区别的主要内容,如果未能解决你的问题,请参考以下文章
CString 赋值正在改变 GetLastError() 的值