学习了哪些知识,计算机视觉才算入门
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了学习了哪些知识,计算机视觉才算入门相关的知识,希望对你有一定的参考价值。
参考技术A 要学习以下计算机视觉的知识才能算入门:1.图像生成.(包括成像原理,相机内参数外参数及光学畸变矫正方法,光照,阴影和颜色空间)
2.早期视觉.(包括低通滤波的平滑,中值滤波,高通滤波的图像增强,图像变换域,频域下的滤波,卷积,高斯和拉普拉斯金字塔,图像纹理)
3.图像数学形态学处理.(包括腐蚀,膨胀,开运算,闭运算,顶帽运算,骨架提取,击中击不中变换)
4.底层视觉.(包括Fast,SITF,SURF,ORB等特征点,LATCH等描述符,匹配,单应变换,RANSAC,立体视觉,运动中恢复结构SFM)
5..中层视觉.(包括图像分割,分水岭,区域生长,聚类,拟合,霍夫,光流,图像直方图,相似度,CamShift,卡尔曼滤波,粒子滤波)
6.高层视觉.(包括配准,轮廓,凸包,深度图,图像分类,图像检索)
7.顶层视觉.(包括物体识别,人类检测识别,人体跟踪,行为识别等)
另外,还要掌握一定的C++,python等语言的编程技术和OpenCV等函数库的使用本回答被提问者采纳
计算机视觉入门
一、掌握知识
(一)计算机视觉之OpenCV
-
-
-
图片读取与展示、图片写入、图片质量控制、像素操作
-
几何变换、图片特效、图像美化、机器学习
-
机器学习:视频分解图片、图片合成视频
-
-
(二)计算机视觉之TensorFlow:手写数字识别
-
-
-
常量变量、Numpy模块使用
-
四则运算、matplotlib模块使用
-
矩阵操作基础、神经网络
-
-
(三)计算机视觉之TensorFlow:刷脸识别
-
-
-
Harr+adaboost人脸识别
-
Hog+svm小狮子识别
-
-
二、附录(相关知识)
(一)KNN算法(邻近算法)
K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。kNN方法在类别决策时,只与极少量的相邻样本有关。由于kNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,kNN方法较其他方法更为适合。
算法流程
1. 准备数据,对数据进行 预处理
2. 选用合适的数据结构存储训练数据和测试元组
3. 设定参数,如k
4.维护一个大小为k的的按距离由大到小的 优先级队列,用于存储最近邻训练元组。随机从训练元组中选取k个元组作为初始的最近邻元组,分别计算测试元组到这k个元组的距离,将训练元组标号和距离存入优先级队列
5. 遍历训练元组集,计算当前训练元组与测试元组的距离,将所得距离L 与优先级队列中的最大距离Lmax
6. 进行比较。若L>=Lmax,则舍弃该元组,遍历下一个元组。若L < Lmax,删除优先级队列中最大距离的元组,将当前训练元组存入优先级队列。
7. 遍历完毕,计算优先级队列中k 个元组的多数类,并将其作为测试元组的类别。
8. 测试元组集测试完毕后计算误差率,继续设定不同的k值重新进行训练,最后取误差率最小的k 值。
(二)CNN卷积神经网络结构
卷积神经网络(Convolutional Neural Network, CNN)是深度学习技术中极具代表的网络结构之一,在图像处理领域取得了很大的成功,在国际标准的ImageNet数据集上,许多成功的模型都是基于CNN的。CNN相较于传统的图像处理算法的优点之一在于,避免了对图像复杂的前期预处理过程(提取人工特征等),可以直接输入原始图像。
图像处理中,往往会将图像看成是一个或多个的二维向量,如之前博文中提到的MNIST手写体图片就可以看做是一个28 × 28的二维向量(黑白图片,只有一个颜色通道;如果是RGB表示的彩色图片则有三个颜色通道,可表示为三张二维向量)。传统的神经网络都是采用全连接的方式,即输入层到隐藏层的神经元都是全部连接的,这样做将导致参数量巨大,使得网络训练耗时甚至难以训练,而CNN则通过
局部连接
、权值共享
等方法避免这一困难,有趣的是,这些方法都是受到现代生物神经网络相关研究的启发
以上是关于学习了哪些知识,计算机视觉才算入门的主要内容,如果未能解决你的问题,请参考以下文章