cs 保研经验贴 | 数学试题 · 自动化所特供版
Posted 月出兮彩云归
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了cs 保研经验贴 | 数学试题 · 自动化所特供版相关的知识,希望对你有一定的参考价值。
据(2022 年我所看的)往年经验,自动化所比较重视数学。感觉,按照自动化所的数学题库复习,就足以应付大多数夏令营的笔试面试了。
高等数学
-
初等函数的定义:
- 幂函数、指数函数、对数函数、三角函数、反三角函数,与常数经过有限次的有理运算(加、减、乘、除、有理数次乘方、有理数次开方),及有限次函数复合的函数。并且能用一个解析式表示。
-
反函数存在条件:
- 定义域 值域 一一映射。
-
二次积分和二重积分的区别和联系:
- 没有本质区别。将二重积分化为二次积分(不一定能),是为了好算。
- 二重积分:二元函数在空间上的积分,求曲顶柱体体积。
- 二次积分:两次单变量积分,就是平常计算时,一个变量一个变量积分、
-
green 公式,gauss 公式,stokes 公式,条件 关联
- 条件:闭区域面 / 体 / 光滑曲面带边界,连续 且 一阶连续偏导数。
- green: Qx - Py,
- gauss: Px + Qy + Rz,
- stokes:
- 关系:
-
数列和函数极限的定义:
- 数列极限:若存在 A,使得任意 ε 存在 N,n>N → |a_n-A|<ε,则 lim a_n=A
- 函数极限:若存在 A,使得任意 ε 存在 δ,|x1-a|<δ → |f(x1)-A|<ε,则 lim f(a)=A
-
什么是连续、可导 / 可微。
- 连续:某点连续:极限值=函数值(不会跳变),函数连续:每个点都连续。
- 一致连续:对区间 I 上任意两点 x1 x2,任意 ε 存在 δ,|x1-x2|<δ → |f(x1)-f(x2)|<ε。不能陡到难以接受。闭区间上 连续 等价于 一致连续。
- 可微:若自变量在点x的改变量 Δx(可能是向量),与函数相应的改变量Δy,有关系Δy=A·Δx+ο(Δx),其中A与Δx无关。那么 A 是微分。
- 可导:lim Δy/Δx =A 存在,那么 A 是导数。两侧可导 → 连续,单侧可导 另一侧可跳变。
- 方向导数:lim f(x+Δx, y+Δy) / sqrt(Δx²+Δy²) =A 存在,那么 A 是导数。
-
可微 可导 连续 关系
- 一元:可微 = 可导 > 连续 > 可积。
- 多元:
- 偏导数 在邻域 存在且连续 → 可微;
- 可微 > 偏导数存在,两边偏导数 → 连续,一边偏导数 不一定 连续。
-
Riemann 积分的概念:
- 黎曼可积:如果函数 f 在闭区间 [a,b] 上,无论怎样进行分割,只要 子区间长度最大值 足够小,黎曼和都趋向于一个确定值,那么在闭区间 [a,b] 上的黎曼积分存在 = 黎曼和的极限。
- 任意 ε 存在 δ,子区间长度最大值 λ<δ 时,\\(|\\sum_i=1^n-1f(t_i)(x_i+1-x_i)|-S<\\epsilon\\) 。
- 可验证的定义,达布积分:任意 ε 存在 分割,使得任何更精细的分割都 |Σ|-S<ε。
-
Lebesgue 积分的概念(没学过,不太会)。
-
如何求带条件的极值,lagrange 乘数法:
- z=f(x,y) 当 φ(x,y)=0 时的极值,构造 lagrange 函数 L(x,y,λ) = f(x,y) + λφ(x,y)。
- 求 L 的驻点,即 x y λ 偏导数 = 0,即得。
-
介值定理,零点存在定理,最值定理:
- 介值定理:设函数 是 上的连续函数,且存在不等式 ,则必然至少一个数 ,能够使得 。
- 零点存在定理:设函数是 上的连续函数,且存在不等式 ,则在 上,至少存在一个数 ,能够使得 成立。
- 最大值最小值定理:设函数 为 上的连续函数,则 必然在 上存在最大值 和最小值 。
-
积分中值定理:
- 条件:闭区间 / 有界闭区域 连续。
- 第一:存在 ε∈[a,b] 使得
- 第二:f 在 [a,b] 可积(不一定连续),g 在 [a,b] 上单减 且 ≥ 0,存在 ξ∈[a,b] ,还有一个单增形式。
-
微分中值定理:lagrange,cauchy,Rolle,区别 联系 条件
- 条件:闭区间连续,开区间可导。
- Rolle: f(a)=f(b) 则 f\'(ξ)=0。
- lagrange: f\'(ξ) = (f(b)-f(a)) / (b-a)
- cauchy: f\'(ξ)/g\'(ξ) = (f(b)-f(a)) / (g(b)-g(a))
- 联系:是 推广 & 特殊情况 的关系。
-
洛必达法则 L\' Hospital:
-
0/0 ∞/∞ 上下求导。
-
条件:
- x → a 时 f 和 F 都 → 0,在 a 的去心邻域里 f\' F\' 都存在 且 F\' ≠ 0,lim f\' / F\' 存在(或为无穷大)。
- x → ∞ 时 f 和 F 都 → 0,当 |x|>N 时 f\' F\' 都存在 且 F\' ≠ 0,lim f\' / F\' 存在(或为无穷大)。
-
解析式:\\(lim_x\\rarr a f(x)/F(x)=lim_x\\rarr a f\'(x)/F\'(x)\\) 。
-
理解:局部切线代替函数曲线。
-
-
泰勒公式:
- ,方法是 拿待定系数多项式近似,求导 LHS=RHS 求待定系数。
- piano 余项:o[(x-x0)^n] 是 (x-x0)^n 的高阶无穷小,lagrange 余项 。
- 泰勒级数收敛:充要:泰勒展开幂级数收敛(看收敛域),且 某一数的邻域里,展开阶数 → 无穷,lagrange 余项 → 0。
-
代数基本定理:
- n次复系数多项式方程,在复数域内有且只有n个根(重根按重数计算)。
-
牛顿迭代法:
- 求解函数零点:借助泰勒级数,从初始值开始,快速向零点逼近。
- 找一点 x,做斜率为导数的切线,更新 x = 切线与 x 轴交点。
- 收敛条件:f(x) 充分光滑(各阶导数存在且连续),f\'(a) ≠ 0(单重零点)则初始值在 a 的某个邻域里 收敛速度二阶,f\'(a) = 0(多重零点)收敛速度一阶。
- x 阶收敛:第 k 次迭代绝对误差为 ek, ,若 p=2 则二阶收敛。
- 缺点:函数光滑严苛,初始值必须尽量靠近最终解。
线性代数
-
向量空间 / 线性空间:
- 某集合里定义了 向量加法 数乘 运算,集合对 加法 数乘 封闭。
- 加法满足:交换律 α+β=β+α,结合律 α+(β+γ)=(α+β)+γ,零元 α+0=α 逆元 α+β=0 β=-α。
- 乘法满足:单位元 1α=α,结合律 (kl)α=k(lα),和向量加法的两个分配律 (k+l)α=kα+lα k(α+β)=kα+kβ。
-
线性相关 & 线性无关:
- 对线性空间 V 里的向量 v1, v2, ..., vn,存在不全为零的 c1, c2, ..., cn,使得 c1v1+ c2v2+ ... + cnvn = 0,那么 v1, v2, ..., vn 线性相关。如果不存在 不全为零的 c 则线性无关。
- 线性相关:列向量组成矩阵 行秩不满,可以用一堆东西的线性组合表示另一个。
- 线性无关:广义 组成的四边形 六面体 超几何体 体积不为零。
- 极大线性无关组:在某线性空间中,拥有向量个数最多的 线性无关向量组。
-
矩阵的秩 Matrix Rank,物理意义,相关的性质:
-
线性无关向量的个数,最大 行列式 ≠ 0 子式的维度。
-
定义的相互转化(等价性):
- r 阶 行列式 ≠ 0 子式,这 r 个向量线性无关。
- 若取 r+1 阶子式,这些行 / 列向量必然线性相关,则行列式 = 0。
-
性质:
- 基础:初等变换不改变秩,乘可逆矩阵不改变秩,矩阵可逆 <=> 矩阵满秩
- 高级:
- r(A) + r(B) - n ≤ r(AB) ≤ minr(A), r(B),(分块矩阵)
- maxr(A), r(B) ≤ r(A, B) ≤ r(A) + r(B),(感性理解)
- A B 相似则 r(A)=r(B)。
-
物理意义:把矩阵看作变换,变换后,虽然没法完全不丢信息(不满秩),但至少还能保住几个面(秩)。
-
-
矩阵的迹 trace,相关的性质:
- 所有对角元的和,也是所有特征值的和。
- tr(AB) = tr(BA),tr(mA+nB) = m tr(A) + n tr(B),线性 可乘。
- d tr(A) = tr(dA)
-
线性方程组 Ax = b 有解 / 无解 / 有唯一解 的条件:
- 有解:b 存在于 A 的列向量的线性空间,b 能被 A 的列向量线性表示,A 的秩 = 分块矩阵 (A,b) 的秩
- 多解 / 唯一解:A 的列向量线性无关(列满秩),唯一解;Ax=0 列满秩,则只有零解。非列满秩,则多解。
- (系数矩阵 / 增广矩阵)
-
矩阵的特征值是什么,有什么物理意义,应用
- Ax=λx。算子的本征值(投影不变,有点像傅里叶变换 卷积指数信号还是指数信号)。
- —个变换矩阵的所有特征向量,都是正交的,组成了这个变换矩阵的一组基。
- 矩阵的特征值分解:\\(A=Q\\Sigma Q^-1\\),Σ是对角阵,Q是特征列向量组成的矩阵。
- 怎么求:
- 写出方程丨λE-A丨=0,其中I为与A同阶的单位阵,λ为代求特征值
- 将n阶行列式变形化简,得到关于λ的n次方程
- 解此n次方程,即可求得A的特征值
- 应用:PCA 主成分分析。
-
初等变换:
- 用一非零的数乘以某一 行 / 列,把一 行 / 列 的倍数加到另一 行 / 列,互换两 行 / 列 的位置。
- 初等矩阵:单位矩阵 E 经过一次初等变换。
- 矩阵 上三角 下三角:
- 行列式为对角线元素相乘。直接初等变换即可得到。
-
矩阵的恒等变换:
- 就是单位矩阵。
-
奇异矩阵:
- 行列式 = 0 的方阵,非满秩 的方阵。
-
伴随矩阵:
-
矩阵对角化:
-
特征值特征向量 判断能否对角化:
- 所有特征值都不相等:ok。
- 重数为 k 的特征值 也有 k 个特征向量:ok。小于 k 则不行。
-
对角化的方法:
- 特征值求出来,然后特征向量组成的矩阵 单位正交化,最后 Σ = T\'AT。
-
-
正交矩阵:
- \\(AA^T=A^TA=E\\)。
- \\(A^T=A^-1\\) 也是正交矩阵,行向量 列向量 是 单位向量 且两两正交,|A|=1 或 -1(显然)。行向量 / 列向量 是 规范正交基。
- 左乘正交矩阵造成的空间变换,是用一个新空间代替原有空间,即用另一组正交基描述被变换的向量,不改变原向量的长度和空间位置。
-
矩阵的 等价,相似,合同:
- 相似:P^-1AP=B,则 A B 相似。
- 条件:
- 充要:两矩阵有相同的 行列式,不变因子,初等因子组。
- 充要:相同的 Jordan 标准型(除 Jordan 块排列次序)。
- 必要(相似能推出以下):行列式,秩,迹,特征多项式 一样。。
- 相似对角化:与对角阵相似,当且仅当 A 有 n 个线性无关的特征向量。
- 施密特正交化:得到标准正交向量组,即 大家既正交 又单位向量。
- 条件:
- 合同:P^TAP=B,则 A B 合同。
- 等价:r(A) = r(B),秩相等。如果 B 可由 A 经过一系列初等变换得到,则等价。
- 相似:P^-1AP=B,则 A B 相似。
-
二次型,正定矩阵,半正定矩阵。
- 二次型: , 。
- 正定二次型:对任意一组不全为零的实数 x1..n,都有 f(x1..n) = X^TAX > 0。A 也称为正定矩阵。
- 正定矩阵的判定:(应该是充要了)特征值均为正(为零也不行)。
- 半正定:f ≥ 0,特征值均非负。负定 半负定 定义相似。
-
Jordan 标准型:
- Jordan 块:
- Jordan 标准型:由 Jordan 块组成的 块对角矩阵。
- 化为 Jordan 标准型:任意方阵都可化为,初等因子法:
- 首先用初等变换,化特征矩阵 λE-A 化为对角形式,然后将主对角上的元素分解成 互不相同的一次因式方幂的乘积,则所有这些一次因式的方幂(相同的按出现的次数计算)就是 A 的全部初等因子。
- 然后就不会了。
-
矩阵的微分,Hessian 矩阵,Jacobian 矩阵:
- 梯度,相当于多元标量函数 对向量求导。
- Hessian 矩阵,多元标量函数的二阶微分:
- Jacobian 矩阵,向量函数 对 向量微分,:
- 如果矩阵元素都是某个标量的函数,那么直接微分 大小和原矩阵一样。
- 矩阵乘法的微分:
-
什么是向量范数,矩阵范数?
- 范数定义:正定(零矩阵范数=0),齐次(|λA|=λ|A|),三角不等式(两边范数之和 ≥ 第三边范数)。
- 向量的 L1 norm,L2 norm,矩阵我没学过。
-
矩阵的幂运算:
- A^n = A^n-1 · A = A · A^n-1。
- 相似对角化:如果 A = Q^-1 · Λ · Q,那么直接对角阵元素 n 次方。
- 幂等矩阵:A^n = A,特征值只可能是 0 1,迹 = 秩 tr(A)=rank(A),A(E-A)=(E-A)A。
-
什么是 Pseudo Inverse 伪逆矩阵?
- (奇异矩阵 非方阵 不存在逆矩阵)逆矩阵的广义形式。
- 与 A 的转置矩阵 A\' 同型的矩阵 X,并且满足:AXA=A, XAX=X
-
MATLAB解线性方程组的原理。
概率论
-
概率论和数理统计的区别与联系
- 概率论:更数学,从已知形式或某些参数的 分布 / 随机变量入手,推断出另一者的性质,比如 已知分布形式 求期望方差,已知随机变量参数 估计分布期望方差(大数定律 中心极限定理 这是数理统计的基础),已知事件间关系建模 求概率(全概率公式 贝叶斯公式)。
- 数理统计:更偏应用,基础是概率论,是概率论的应用,从实际出发,从采样出发,主要内容有参数估计、假设检验等。
- 知和用的关系。一个是发现规律,构造模型,证明定理。一个是选择模型,调整模型,应用模型。
-
什么是概率密度函数,性质:
- 连续型随机变量,f(x) 落在一段区间的概率 / 区间长度,取极限 区间长度 → 0。
- 总是 ≥ 0,∫f(x)dx = 1,PX>x = ∫_-∞^x f(x)dx
-
联合概率分布、条件概率分布、边缘概率分布:
- 条件概率:B 发生的情况下 A 发生的概率。
- 联合概率:包含多个条件的条件概率。
- 边缘概率:仅与单个随机变量有关的概率,剩下维度按分布求期望。
- 能否直接由边缘分布函数求得联合分布函数:两随机变量不相互独立 则不行。
-
大数定律(切比雪夫,伯努利,辛钦):
-
当样本数据无限大时,(形式 lim n→∞ P = 1)
- 样本均值 → 总体均值(切比雪夫,条件为方差有限大)
- 事件 A 发生的频率 → 概率(伯努利)
- 样本均值→ 数学期望(辛钦,条件为期望存在)
-
应用:多次采样平均减小误差。
-
-
中心极限定理:
- 当样本量 n 逐渐趋于无穷大时,n 个抽样样本的均值的频数,逐渐趋于正态分布 N(μ, σ²/n)。原总体的分布不做任何要求。
- 应用:1. 样本平均值 → 总体均值 / 期望,2. 样本方差 → 估计总体方差。
-
最大似然估计:
- 概率:结果没有产生之前,根据环境参数,预测某件事情发生的可能性;
- 似然:在确定的结果下,去推测产生这个结果的可能环境参数。
- L(θ|x) = P(x|θ)。既然已经观测到了这个现象,就取 让它出现概率最大 的环境参数值吧。
-
贝叶斯公式,应用:
- 已知 B 求 A 的概率,等于 AB 都发生概率 / B 发生的概率。
- 应用:通过发生的事情,反推环境是 xx 因素的概率。
-
全概率公式:
- 事件 A1,A2,…构成一个完备事件组(互斥且 Σ概率=1),那么 P(B) = Σ P(B|Ai) P(Ai)。
-
协方差 & 相关系数:
- 协方差:两随机变量 线性相关性的强度,\\(Cov(X,Y)=E[X−E(X)][Y−E(Y)]\\);
- 相关系数:归一化(不受变量尺度影响),Corr = 0 则不相关。 \\(Corr(X,Y)=Cov(X,Y)/\\sqrtD(X)\\sqrtD(Y)\\)。
- 协方差 / 相关系数 = 0 但仍然不独立:Y = X²。
-
正态分布 / 高斯分布:
- 若随机变量 X 服从一个数学期望为 μ、方差为 σ² 的正态分布,记为 N(μ, σ²)。
- 概率密度函数:
- 期望值 μ 决定了其位置,标准差 σ 决定分布的跨度。μ = 0, σ = 1:标准正态分布。
- 正态分布能积分出来吗:不太能,最多只有这个
- 应用场景:近似某些分布(中心极限定理),把成绩转换为正态分布(高考赋分)。
- 对正态分布,独立和不相关等价。
- (相互独立的)正态分布相加:μ1 + μ2,σ1² + σ2²。
- (相互独立的)正态分布相乘:(μ1σ2² + μ2σ1²) / (σ1² + σ2²),σ1²σ2² / (σ1² + σ2²)。
- (相互独立的)正态分布平方和:卡方分布。
- (相互独立的)正态分布联合: 多维正态分布,不相互独立 不一定。
-
指数分布 均匀分布 泊松分布 二项分布:公式
- 指数分布:
- \\(f(x) = λe^−λx, x>0\\)。X ~ Exp(λ)。
- 均匀分布:
- X ~ U(a, b): f(x) = 1/(b-a), a<x<b; 0, others。
- 泊松分布:
- 离散型随机变量, ,参数λ是单位时间(或单位面积)内随机事件的平均发生次数。 泊松分布适合于描述单位时间内随机事件发生的次数。
- 举例:医院平均每小时出生6个新生儿,想知道在起飞前一小时 是否有机会见到10个或更多的婴儿。预测这段时间来的客户数量。
- 二项分布:离散型随机变量,n次独立重复的伯努利试验中,设每次试验中事件A发生的概率为p。n 次试验中事件 A 恰好发生 k 次,这个离散概率分布。 \\(P\\X=k\\=C_n^kp^k(1-p)^n-k, C_n^k=\\fracn!k!(n-k)!\\)
- 指数分布:
-
参数估计:无偏性、有效性、相合性:
- 无偏性:参数估计的数学期望 \\(E(\\hat\\theta)=\\theta\\) 。
- 有效性:(已经无偏)若对于任意 θ∈Θ,有 \\(D(\\hat\\theta_1)\\le D(\\hat\\theta_2)\\)
- 相合性 / 一致性:在大样本条件下,估计值→真实值,n → ∞ 时 \\(\\hat\\theta\\) 依概率收敛于 θ,\\(lim_n\\rarr\\infinP\\|\\hat\\theta-\\theta|\\le\\epsilon\\=1\\) 。
-
参数估计:点估计 & 区间估计:
- 区间估计:在推断总体参数时,还要估计出总体参数的一个区间,并同时给出总体参数落在这一区间的概率的保证。
- 点估计:常用方法有矩估计法、最大似然估计法。提供一个具体的数值估计,不能提供估计参数的估计误差大小。
-
参数估计:矩估计,最大似然估计,最小二乘法,贝叶斯估计。
-
矩估计:
- 矩:μl = E(X^l) = ∫ x^l * f(x|θ)。
- 令 想估计的矩 = 样本矩的平均值。
- 一阶样本原点矩 期望,二阶样本中心矩 方差。
-
最大似然估计:
- 将样本的联合概率密度函数看成的函数,用 L(,) 表示,简记为 L(θ)。
- L() = L(,) = p(;) p(;)...p(;),取令 L(θ) 最大的 θ 值,可能会 乘法 → 加法 logL。
-
贝叶斯学派:最大后验估计(结果里会多一堆超参数,这是先验在起作用)。
-
-
假设检验:
- 一般会提出一对 对立的假设,原假设 H0,备择假设 H1。
- 第一类错误 α:拒绝 H0 且 H0 为真,太激进;第二类错误 β:接收 H0 且 H0 为假,太保守。
- 保护原假设的原则:先限制犯第Ⅰ类错误的概率不超过 显著性水平 α,在此条件下,考虑如何使犯第 Ⅱ 类错误的概率 β 尽可能小。
- 正态分布的应用:假设分布为正态分布,方便做假设检验。
- 双边检验(温度不能过高也不能过低) & 单边检验(只要不往牛奶里掺水就 ok,牛奶当然越浓越好)。
- p 值检验:计算检验统计量,根据最小显著性水平 p,决定接收 / 拒绝 H0。
机器学习
-
梯度 & 梯度下降,为什么梯度下降?
- 梯度:多元标量函数想象成山峦,最陡的方向。
- 梯度下降:通用的找局部最优的方法,很多问题性质不够好,没法数学公式一步求得可接受的解,因此为到达最低点,沿最陡下降方向 一步一步走。
-
距离度量方式:【】
- 马氏距离:
- 曼哈顿距离:
- 欧式距离:
- 余弦距离:
- 相关系数:
-
MSE 为什么是 Σ(yi-y)² 而不是立方?
- 欧几里得距离具有旋转不变性,即不管坐标轴怎么转,某点到原点的距离都不变。L3 norm 没有。
-
最小二乘法。
-
最小二乘法是解决曲线拟合问题最常用的方法。其基本思路是:令
其中,
是事先选定的一组线性无关的函数,
是待定系数
,拟合准则是使
与
的距离
的平方和最小,称为最小二乘准则。
-
-
什么是 SVD 分解。
- 主对角线上每个元素都称为奇异值 singular value。U V 都是酉矩阵(转置矩阵 = 逆矩阵)。
- 应用:
- PCA:对数据的协方差矩阵进行 SVD 分解 ,根据特征值大小,取前 r 列特征向量 和 特征值,用列特征向量进行降维 。
- 推荐系统:
- 对比用户的相似性,将用户A喜欢的手机品牌 推送给 与A相似 但是手机品牌喜好未知的 用户B。
- 用户-商品打分矩阵M(即行代表不同的商品,列代表不同的用户, 代表第 i 个用户对第 j 个商品的喜欢程度)分解成 。其中 U 代表了用户的特征矩阵,V 代表了商品的特征矩阵,为了降低噪声影响会只取前 r 列。
- 当一个新用户数据进来 (对某些商品的喜好程度未知,未知的列设为0)后,会与 对角矩阵 商品特征矩阵 相乘,得到它的用户特征: , 然后将这个新的用户特征 u 与老用户特征矩阵 U 每一行比对(比如用欧式距离),距离最近的那一行 即是最相似的老用户。
-
什么是 LDA,和 SVM 的联系与区别?
-
线性判别分析 LDA:
- 监督学习的降维技术,数据集的每个样本带有类别信息,这点和 PCA 不同,PCA 是不考虑样本类别输出的无监督降维技术。
- 思想:投影后类内方差最小,类间方差最大。我们要把数据往低维度上投影,希望每一种类别数据 的 投影点 尽可能接近,而不同类别数据 的 类别中心之间,距离尽可能大。一般使用 SVD 分解。
- LDA 不适合对非高斯分布样本进行降维,PCA 也有这个问题。
-
支持向量机 SVM:
- 二分类技术,分类超平面跟两类数据的间隔要尽可能大(即远离两边数据)
- 先将数据变成线性可分的,再构造出最优分类超平面;通过选择一个核函数 K ,将低维非线性数据映射到高维空间中。
-
或许可以让 LDA 当作 SVM 的核函数?不过听说 SVM 也不怕高维度呀,难道是怕过拟合吗?
-
-
什么是 Normal Equation 正规方程 标准方程?
- https://blog.csdn.net/jingyi130705008/article/details/78866757
- 线性回归中,为了求得 cost function 最小的参数值θ,我们一般采用梯度下降法,但是当训练样本较小时(不超过千数量级),采用 Normal Equation 进行求解更好。(不能用于不可逆矩阵)
-
GMM 高斯混合模型:
- 聚类算法,用于表示可聚类为多个高斯分布的任何数据集。
- GMM 由两部分组成:均值向量 (μ) 和协方差矩阵 (Σ)。
-
卷积网络:
- 输入层、卷积层,ReLU层、池化(Pooling)层、全连接层。
-
循环神经网络 RNN,LSTM,TCN:
- RNN:
- LSTM:RNN 的问题:不适用于长期记忆。基本思想:
- 引入“门运算”,遗忘门 输入门,选择性记忆。
- 引入“门运算”,将梯度中的累乘变为累加,解决梯度消失问题
- TCN:RNN 的问题:只能串行计算,要保存所有中间变量,因此非常计算密集。因果卷积 && 空洞 dilated 卷积 + 残差模块。
复变函数
-
复变函数求导:
- 极限 lim Δz→0 [f(z0+Δz) - f(z0)] / Δz 存在,则可导,lim = 导数。
- Δz 的方向是任意的,任意方向都要存在。
-
解析,解析函数,奇点:
- 函数在某点解析:如果在 z0 及 z0 的邻域里处处可导,则在 z0 解析。
- 解析函数:如果在区域 D 上处处解析,则是解析函数。
- 某点解析 => 某点可导,区域解析 <=> 区域可导。
- 奇点:f 在 z0 不解析。广义上奇点指未定义的点(如除零)
- 孤立奇点:但 z0 的任意邻域里总有 f 的解析点。
- 性质:单连通域内 环路积分 = 0,复连通域内 广义环路积分(即包括内外边界,内边界取顺时针为正)= 0,导函数仍然是解析函数。
-
Cauchy-Riemann 条件:
- 某点可导充要条件:f = u + iv,该点 u v 可微,且偏导数满足 C-R 方程(ux = vy, uy = -vx)。导数 f\' = ux + ivx = vy - iuy
- 区域解析充要条件:区域内 u v 可微,且偏导数满足 C-R 方程(ux = vy, uy = -vx)。
-
复变函数积分:
- 柯西积分定理 / 积分基本定理:解析函数积分与路径无关,环路积分 = 0。
- 柯西积分公式:
- 高阶导数公式(柯西积分公式 两边对 z0 求导):
-
Abel 定理:
- 绝对收敛: 收敛,可由 实部虚部级数 |a| |b| 绝对收敛推出。
- (收敛但不绝对收敛:Σ 1/n)
- 幂级数在 x0 处收敛,则半径<x0 都绝对收敛;在 x1 出发散,则半径>x1 都发散。
-
洛朗级数 Laurent:
- 对于一片收敛的区域,可以直接 taylor 级数: , 。
- 洛朗级数:解析环域:k 也可以 -1 ~ -n。
- 解析部分:n ≥ 0;主要部分:n<0。无穷远处逆号。
-
留数:
- 留数定理:环路积分 = 环路围的那几个奇点 绕一周积分 = 2Πi Σ 奇点留数。
- 留数:孤立奇点 z0 处 laurent 展开,
- 无穷远点的留数:如果 |z| > R 都解析,则无穷远点是孤立奇点,
- 求无穷远留数 不想积分:
- 扩展留数定理,所有奇点的留数之和为零(包括无穷远)。
-
奇点分类:
- 可去奇点:比如 sin z / z,只要定义得当就完全解析,Res = 0
- 极点:负幂项有限(不会高过 -m 次), 在某个点 是孤立奇点,但是 在 可能就变成了可去奇点。 。
- 本性奇点:负幂项无穷多。
其他
-
数学相关课程中,最有难度的一个知识点是什么。
- 积分不费解,因为物理竞赛。矩阵乘法 → 秩 → 特征值特征向量 费解。
-
高斯白噪声:
- gaussian:幅度 / 瞬时值 分布服从高斯分布。
- white:它的二阶矩不相关,一阶矩为常数,功率谱密度(在较宽的频率范围内)服从均匀分布,是指先后信号在时间上的相关性。
- 分析信道加性噪声的理想模型,热噪声(通信中的主要噪声源)属于高斯白噪声。
-
Markov 性,Markov 过程:
- 给定现在状态 及所有过去状态,其未来状态的条件概率分布 仅依赖于当前状态,与过去状态(即该过程的历史路径)是条件独立的。
- Markov 过程:具有 Markov 性质的过程。
- 时间 状态 都是离散的马尔可夫过程称为马尔可夫链。
-
什么是 Convex:
- 凸函数:一元:
- 函数值的平均 ≥ 平均值的函数 下凸。多元函数定义类似。凸优化问题,局部最优解是全局最优解。
- 判定:二阶导数 ≥ 0,多元函数 如果 Hessian 矩阵 半正定矩阵,则凸函数。
-
什么是李雅普诺夫稳定性(自控,不太会)。
-
什么是丰度(不知道)。
-
投影算子的概念(实变函数,不太会)。
保研——夏令营预推免全过程经验贴
2021年保研结束了,中间经历了非常多的痛苦和挣扎,最终算收获了一个满意的结果。
想将自己的保研经历记录下来,以过来人的身份给学弟学妹们一些小小的建议,也希望你们能够汲取经验,避免踩雷,取得自己满意的结果。
个人背景
首先说一下我的情况,是某211软件工程学生。
一开始认为自己在保研边缘,挣扎了许久是否要专心考研,常常在网上查找一些相关经验贴,甚至买了资料已经开始复习。后来还是认为保研机率比较大,放弃考研开始准备保研事宜。
**
夏令营
**
我报了很多学校的夏令营,包括有北邮、北理、华科、武大、浙大、西工大等等。入了北邮、北理、浙大和西工大和天大,拿了浙软和西工大的优营。
北邮网安
准备了PPT自我介绍和简历,结束后老师进行相关提问,具体是什么已经不太记得了。
北理网安
北理网安是有英文考核的,但当时由于自己对英文问答没有丝毫准备,十分慌乱,虽然问的问题不难,但没有回答上来,最终也没有拿到优营。
天大计算学部
由于人多面试的很快,都没有来得及将自我介绍完整介绍完就被打断,非常匆忙,我感觉大概率是根据学校和个人基本情况选的,因为几分钟的面试面不了什么
浙大软院
当时报了区块链营。周期比较长,是有两周了,不过大部分是在下午和晚上阶段。第一周开展讲座,介绍了考核规则,第二周做准备然后分组考核。
考核规则是这样的:写一封自荐信以及从四个区块链相关选题中选择一个进行讲解。
最终拿到了优营。但是这个优营只是保证了你有参加复试的资格,这也是浙软优营的一个“特色”。
西工大软院
今年的夏令营有点迷,是没有考核的,根据个人基本情况和参会情况进行优营选择,在后期再进行复试。
所以我参加的夏令营拿到了两个优营都没有直接录取效益,都需要参加复试,我感觉自己夏令营参加了个寂寞T^T
**
预推免
**
由于夏令营拿到了浙软的优营,我个人自信心大涨,有点膨胀了,报的预推免都是复旦、北航、华科、天大、南大、哈工大这些高校,但大多初审都没有过。最后只参加了北航软院、哈工大郑研院、浙软复试和西工大复试。
北航软院
复试内容为:思政、英语、专业和综合经历提问。
思政:
-
请用一句话来概括你的思想道德水平
-
“把论文写在祖国大地上”,谈谈你对这句话的理解
大家都是根正苗红的好青年,思政只评个合格不合格就可以,没问题的,不用担心。
英语:
-
做自我介绍
-
问问题。老师问我的是喜欢什么音乐。
自我介绍还是要准备一下。
专业:是有六门专业课,分别是程序设计基础和数据结构、操作系统、计算机网络原理、数据库、软件工程和
编译原理,进去之后,老师让选择1-6中三个数字,分别对应6门专业课,老师就选择的进行一些提问。
综合提问:对实践项目进行提问
全程大约20分钟上下,我当时面的感觉还好,但是录的人实在太少了,软件工程招12个人,电子信息招11个,共录23个,优秀的人太多,还是没排上号,唉
哈工大郑研院
分为四个环节,有逻辑思维能力、沟通、专业知识和科创实践,每个环节5-6分钟,线上面试是你进入一个会议室,老师在那边轮转,要注意环境比较嘈杂,线上可提醒老师关一下麦克风,不然真的很吵,连自己声音都听不见了,会打扰陈述思路。
浙软复试
机试
四道题,考完了反过来看其实不是非常非常难的题,但是自己这种竞赛经历太少,学习的时间太少,知识不够深刻,也跟复习策略有关系,结果并不如人意。
今年机试不能被PAT成绩替代,机试真的很重要
面试
准备了5~8分钟的个人陈述,包括有一分钟的英文自我介绍,然后进行专业知识的问答,问了数据库的索引和视图,但是我没有复习好,最终成绩也比较差,递补都到一百多了。
但是非常戏剧性的是,由于今年人数太多,网太卡,光发offer都发到了六点多,中间有很多同学都选择了别的offer,居然递补到我了。但是我已经选择了西工大的offer,所以有缘无份吧。
西工大复试
提问了思政相关的问题,也有英文自我介绍环节,提问了专业相关知识和项目问题,总体来说还算比较顺利,老师说排名非常靠前^^。
通过了哈工大郑研院、西工大的复试,北航和浙软是递补录取,最终去向是西工大。
Tip
- 择校问题:每一层次的高校都要做选择,保证不断层,这样才能保证最好的结果,让自己不那么后悔。
- 一定一定一定要竭尽全力准备,否则最终结果出来的时候会非常后悔。
- 心态放平。不要跟别人比,有的同学非常幸运,原本准备工作,从来没有准备过后来有保研资格,计划保本校,结果参加了某985高校面试,面试的结果并不好,结果因为鸽子多,递补录取了。当时知道,心态真的有点崩,自己辛辛苦苦努力了这么久,不及人家的幸运。但后来也想通了,无论去向何处,最重要的还是自己去努力。如果就被这个打倒,那前途才是真的一片黑暗了。
总而言之,言而总之,就是拼,拼了就接受所有的结果,希望学弟学妹们都能录取到理想院校,加油吧!
以上是关于cs 保研经验贴 | 数学试题 · 自动化所特供版的主要内容,如果未能解决你的问题,请参考以下文章
计算机保研统计方向,解惑保研点迷津——记统计与数学学院保研与夏令营经验交流讲座...