CString 赋值的区别

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了CString 赋值的区别相关的知识,希望对你有一定的参考价值。

CString s("hello");//1
CString s = "hello";//2
CString s;//3
s.Format("hello");

这三种赋值的效果(结果)是不是完全一样的?如果有,解释一下,先谢谢啦

1、CString和string的转化stringstr="ksarea";
CStringcstr(str.c_str());//或者CString cstr(str.data());初始化时才行
cstr=str.c_str();或者cstr=str.data();
str=cstr.GetBuffer(0); //CString -> string
cstr.format("%s", str.c_str()); //string->CString
cstr.format("%s", str.data()); //string->CString
str = LPCSTR(cstr); //CString->string
/*c_str()和data()区别是:前者返回带\'/0\'的字符串,后者则返回不带\'/0\'的字符串*/

2、CString和int的转换inti=123;
CStringstr;
str.format("%d",i);//int->CString 其他的基本类型转化类似
i=atoi(str);//CString->int 还有(atof,atol)

3、char*和CString的转换CStringcstr="ksarea";
char* ptemp=cstr.getbuffer(0);
char* str;
strcpy(str,ptemp);//CString->char*
cstr.releasebuffer(-1);
char*str="lovesha";
CStringcstr=str;//char*->CString string类型不能直接赋值给CString至于int与float、string与char*之间的转化可以使用强制转化,或者标准库函数进行。对于CString与其他类型的转化方法很多,但其实都殊途同归,朝着一个方向即将类型首先转化为char*类型,因为char*是不同类型之间的桥梁。得到char*类型,转化为其他类型就非常容易了。
参考技术A 要说CString 真的很复杂,里头有好多东西要讲的

第一个,以一个const char p[]的头指针,作为参数新创建一个对象
结果是出现了两个 "hello"
第二个,将现在内存中的 "hello" 的引用地址 传给CString对象,
内存中只有一个 "hello"

第三个,其实我觉得等效第二个,先创建一个基本对象,然后只是改了个地址指针。。只是第三个可以在Format方法中重新组装一个字符串,通过格式符 只是我觉得,猜的本回答被提问者采纳
参考技术B 楼上的,你确定第2种方法中=是传递引用地址,而不是生成拷贝么 参考技术C 是完全一样的

因为这样就不用解释啦...
哈哈

pytorch中张量加法赋值和赋值的区别

【中文标题】pytorch中张量加法赋值和赋值的区别【英文标题】:Difference between tensor addition assignment and assignment in pytorch 【发布时间】:2021-10-06 10:55:01 【问题描述】:

我发现 pytorch 对待张量赋值和加法赋值的方式不同。示例如下所示

x = torch.tensor(3.0)
print(id(x))
x = x + 5
print(id(x))

结果是

1647247869184
1647248066816

如果我们运行以下代码

x = torch.tensor(3.0)
print(id(x))
x += 5
print(id(x))

,结果是

1647175563712
1647175563712

从这两个例子中,我们可以看出使用加法赋值不会改变变量地址,而加法会改变地址。这对训练神经网络有影响。例如,在 pytorch 教程“什么是torch.nn 到底是什么?”中,有一段代码如下所示

from IPython.core.debugger import set_trace

lr = 0.5  # learning rate
epochs = 2  # how many epochs to train for

for epoch in range(epochs):
    for i in range((n - 1) // bs + 1):
        #         set_trace()
        start_i = i * bs
        end_i = start_i + bs
        xb = x_train[start_i:end_i]
        yb = y_train[start_i:end_i]
        pred = model(xb)
        loss = loss_func(pred, yb)

        loss.backward()
        with torch.no_grad():
            weights -= weights.grad * lr
            bias -= bias.grad * lr
            weights.grad.zero_()
            bias.grad.zero_()

我们可以看到在 torch.no_grad() 上下文中,使用了减号赋值。如果我们将减号赋值更改为如下所示的正常赋值,则代码不起作用。

        with torch.no_grad():
            weights = weights - weights.grad * lr
            bias = bias - bias.grad * lr
            weights.grad.zero_()
            bias.grad.zero_()

现在,我知道如果我们不想更改变量,应该使用 += 或 -=。但是,在python中,+=和=没有区别,两者都改变​​变量地址。示例如下:

x = 3
print(id(x))
x += 1
print(id(x))
x = x + 1
print(id(x))
140736084850528
140736084850560
140736084850592

我的问题是

为什么 pytorch 中存在 += 和 = 的区别?这是故意的吗? 允许差异存在有什么好处?

【问题讨论】:

【参考方案1】:

+= 是一个就地操作,即它修改原始变量的内容而不复制它(保留相同的内存地址)。

其他例子:

x *= 3 X[…] = … X.add_(1)

weights = weights - weights.grad * lr 中,它不起作用,因为您正在创建一个新变量(地址不同,只是它也有名称权重)。

顺便说一句,在pytorch的optimizers中是这样实现的:

weights.add_(weights.grad, alpha=-lr)

【讨论】:

@Andy 如果解决了您的问题,您可以点击“正确符号”来接受答案:)

以上是关于CString 赋值的区别的主要内容,如果未能解决你的问题,请参考以下文章

关于CString之间赋值的问题

CString 赋值正在改变 GetLastError() 的值

C++问题,怎么把char数组以ASCII码赋值给CString

char* 给CString 赋值。

vc中把CString变量赋值给一个char变量

CString之间为啥不能互相赋值