学习笔记网络图数据分析导论(solid)
Posted 囚生CY
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了学习笔记网络图数据分析导论(solid)相关的知识,希望对你有一定的参考价值。
讲座标题:Introduction to Network Data Analysis
中文标题:网络数据分析导论
讲授者: Dr. Zongming Ma \\textDr. Zongming Ma Dr. Zongming Ma
讲授者邮箱(课程内容问题可联系): zongming.ma@gmail.com \\textzongming.ma@gmail.com zongming.ma@gmail.com
腾讯会议 I D \\rm ID ID:
第一节课(讲座时间: 2021/07/28 08:00-11:30(UTC+8) \\text2021/07/28 08:00-11:30(UTC+8) 2021/07/28 08:00-11:30(UTC+8)) 353417977 353417977 353417977(密码: 123456 123456 123456)https://meeting.tencent.com/s/MuR1hV5tczeW
第二节课(讲座时间: 2021/07/29 08:00-11:30(UTC+8) \\text2021/07/29 08:00-11:30(UTC+8) 2021/07/29 08:00-11:30(UTC+8)) 482857838 482857838 482857838(密码: 123456 123456 123456)https://meeting.tencent.com/s/iyUdNiXsohiy
第三节课(讲座时间: 2021/07/30 08:00-11:30(UTC+8) \\text2021/07/30 08:00-11:30(UTC+8) 2021/07/30 08:00-11:30(UTC+8)) 107999260 107999260 107999260(密码: 123456 123456 123456)https://meeting.tencent.com/s/9UwpnnmlCKbc
序言
这门课是叉院开设在今年 7 7 7月 28 28 28日至 7 7 7月 30 30 30日的短期课程,主要讲授在网络图中的模型与应用,重心偏于统计理论以及数学规划,难度较高。讲授者以板书形式授课,笔者对板书内容进行的翻译,预计更新至 7 7 7月 30 30 30日,不过那天可能会有事无法详细记录最后一节课的内容。
讲授者介绍及课程大纲见本文 Lecture 1 \\textLecture 1 Lecture 1中的内容,笔者认为该课程的质量是非常高的,有兴趣的朋友可以抽空来听听,虽然目前图神经网络已经有长足的应用与发展,但是笔者一向认为缺乏理论支撑的工作往往是难以长久的。
另上述邮箱可用于联系讲授者进行课程内容答疑,此后两天课程时间改为从 08 : 30 08:30 08:30开始,中途下课一次。
文章目录
Lecture 1 \\textLecture 1 Lecture 1 概论
-
讲授者介绍:
Dr. Zongming Ma is an Associate Professor of Statistics of the Wharton School at the University of Pennsylvania. He received his PhD in Statistics from Stanford University in 2010 and has since then been on the faculty of the Wharton Statistics Department. Dr. Ma’s research interests include high-dimensional statistical inference, nonparametric statistics, network data analysis, and their applications in biomedical data analysis. He is a recipient of a Sloan Research Fellowship and an NSF CAREER Award.
-
课程大纲:
- Introduction to network data
(a) Examples of typical network data
(b) Important characteristics
(c) Main challenges: modeling, algorithm, theory
(d) This course: exchangeable network models, SBM / DCBM / latent space models - A short introduction to statistical decision theory
(a) Model, parameter, action space, loss, risk
(b) Statistical optimality: Cramer–Rao, Bayes, minimax, rate minimax
(c) Why the rate minimax viewpoint makes sense for complex decision problems
(d) Neyman-Pearson lemma
(e) Statistical optimality vs. computational efficiency - Stochastic block models (1)
(a) Data, model and parametrization
(b) Likelihood and mean structure
(c) To start with: planted partition model (balanced 2-block model)
i. Spectral clustering
ii. SDP relaxation of MLE
iii. Approximate message passing - Stochastic block models (2): Performance guarantee of spectral clustering
(a) Prelude: three different regimes for community detection
(b) l2 loss function
(c) l∞ loss function
(d) From spectral clustering to rate minimaxity - Stochastic block models (3): Performance guarantee of SDP relaxations
- From SBMs to DCBMs
(a) Reminder: why DCBMs
(b) Generalization of spectral clustering
(c) Generalization of SDP
(d) Rate optimality in DCBMs - Latent space models
(a) Intro to latent space models
(b) Connection to 1-bit matrix completion
(c) Parameter estimation
(d) Community detection - Other models and connections to other statistical problems
- Introduction to network data
Lecture 2 \\textLecture 2 Lecture 2 统计决策理论导论
本节内容为数理统计回顾。
-
模型,参数,参数空间
( 1 ) (1) (1) 模型:给定数据 X X X,模型即生成 X X X的概率分布 F F F,记为 X ∼ F X\\sim F X∼F。
( 2 ) (2) (2) 参数:我们并不 100 % 100\\% 100%确定模型是正确,因此通常考虑一组模型,由参数 θ \\theta θ来索引(index)。
( 3 ) (3) (3) 参数空间:即参数 θ \\theta θ的定义域 Θ \\Theta Θ。
-
行为空间,损失函数与风险函数
( 1 ) (1) (1) 理论框架:给定数据 X X X,模型 F θ F_\\theta Fθ,需要制定决策,如估计、检验以及预测。
( 2 ) (2) (2) 行为空间:决策可以采取的所有值构成行为空间,记为 A \\mathcalA A,我们需要得出某个映射 X → A X\\rightarrow\\mathcalA X→A。
- 在检验中, A = 0 , 1 \\mathcalA=\\0,1\\ A=0,1或 A = [ 0 , 1 ] A=[0,1] A=[0,1]表示是否拒绝零假设或表示随机检验中拒绝零假设的概率。
( 3 ) (3) (3) 损失函数:给定一个行动 a ∈ A a\\in A a∈A,损失函数 l ( a , θ ) l(a,\\theta) l(a,θ)用于衡量该行为有多坏。
- 确定检验中,一种合理的损失函数: l ( a , θ ) = 1 a = 1 ⋅ 1 θ ∈ H 0 + 1 a = 0 ⋅ 1 θ ∈ H 1 l(a,\\theta)=\\textbf1_a=1\\cdot\\textbf1_\\theta\\in H_0+\\textbf1_a=0\\cdot\\textbf1_\\theta\\in H_1 l(a,θ)=1a=1⋅1θ∈H0+1a=0⋅1θ∈H1
- 随机检验中,一种合理的损失函数: l ( a , θ ) = a ⋅ 1 θ ∈ H 0 + ( 1 − a ) ⋅ 1 θ ∈ H 1 l(a,\\theta)=a\\cdot\\textbf1_\\theta\\in H_0+(1-a)\\cdot\\textbf1_\\theta\\in H_1 l(a,θ)=a⋅1θ∈H0+(1−a)⋅1θ∈H1
( 4 ) (4) (4) 风险函数:即损失函数的期望值, R ( θ ) = E θ [ l ( a ( X ) , θ ) ] R(\\theta)=\\mathbbE_\\theta\\left[l(a(X),\\theta)\\right] R(θ)=Eθ[l(a(X),θ)],这是一个只与 θ \\theta θ相关的函数。
R ( θ ) = E θ ∥ g ^ ( θ ) − g ( θ ) ∥ 2 2 (2.1) R(\\theta)=\\mathbbE_\\theta\\left\\|\\hat g(\\theta)-g(\\theta)\\right\\|_2^2\\tag2.1 R(θ)=Eθ∥g^(θ)−g(θ)∥22(2.1) -
统计最优性
( 1 ) (1) (1) Cramer-Rao \\textCramer-Rao Cramer-Rao定理(无偏估计量的最小方差): X 1 , . . . , X n ∼ i i d f θ ( x ) X_1,...,X_n\\oversetiid\\simf_\\theta(x) X1,...,Xn∼iidfθ(x),设 W ( x ) = W ( X 1 , . . . , X n ) W(x)=W(X_1,...,X_n) W(x)=W(X1,...,Xn)是任意一个估计函数,其中 x ∈ X x\\in\\mathcalX x∈X,使得 d d θ E θ [ W ( x ) ] = ∫ X ∂ ∂ θ [ W ( x ) f θ ( x ) ] \\frac\\textd\\textd\\theta\\mathbbE_\\theta[W(x)]=\\int_\\mathcalX\\frac\\partial\\partial\\theta\\left[W(x)f_\\theta(x)\\right] dθ课程笔记人工智能导论——从四个学校东拼西凑的产物