对 张量 的 批判

Posted ksongking

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了对 张量 的 批判相关的知识,希望对你有一定的参考价值。

我刚 在 百度 查了一下  “协变导数”  ,  看了第一眼 就 知道 怎么 回事 了,  果然 是 张量 的 内容  。

 

Oh    ……

 

张量 这个 东西 呢 ,  搞了 一堆 符号 出来,  其实 并没有什么 神秘,  基本原理 仍然 是 微积分,  只不过 张量 把 一系列 需求 “封装” 成了 一套 “张量 API” ,  那些 箭头 冒号 之类 的 符号 还有 “协变导数” 、“共变导数” 之类 的 词语 都是 API 的 内容,   可以认为是 API 提供 的 方法 参数 等, 你去 用 就行  。

 

Oh  ……   我上面用了一些 计算机 程序设计 的 术语,

 

 

因为 现在 软件界 也是 流行 搞 这种 , 这种 叫 “抽象层”, 比如 容器, 和 数学 里的 张量 类似, 容器 是 操作系统 之上 的一个 抽象层, 张量 是 微积分 之上 的 一个 抽象层, 但是 这些 抽象层 笨重 而 复杂, 消耗学习成本, 束缚 程序员(科学人员) 的 战斗力 爆发力 张力 生命力 生产力 。 弊大于利 。

 

这是一种 病,  叫 “抽象层 弊病”,

 

现在 软件界 和 科学界 都 流行 这种病,   这跟 西方学术思想 密切 相关  。

以上是关于对 张量 的 批判的主要内容,如果未能解决你的问题,请参考以下文章

根据张量流中给定的序列长度数组对 3D 张量进行切片

Keras:如何使用来自另一个张量的信息对张量进行切片?

如何使用内置的张量流方法对特征和标签张量执行 sklearn 风格的训练测试拆分?

第三节 张量

对Tensorflow中tensor的理解

如何对两个 PyTorch 量化张量进行矩阵相乘?