认知计算概论
Posted wallacevv
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了认知计算概论相关的知识,希望对你有一定的参考价值。
前段时间的“人机大战”——谷歌的Alpha Go战胜人类棋手的新闻甚嚣尘上,不禁有人会想起1997年IBM自主研发的深蓝战胜卡斯帕罗夫的事件。“人工智能”这个词再次被推上风口浪尖,而“认知计算”却鲜有人听说,同样是人类模拟机器思索,让机器具有自主思考能力,都是具有跨时代意义和里程碑式的存在。
认知计算更加强调机器或人造大脑如何能够主动学习、推理、感知这个世界,并与人类、环境进行交互的反应。它会根据环境的变化做出动态的反应,所以认知更加强调它的动态性、自适应性、鲁棒性、交互性。
计算机在体系架构上的发展历史主要体现在两个方面:
- 计算能力的增强
- 计算规模的增大
随着计算机计算能力的大幅增强,具备了处理海量数据的能力;另一方面,日常生活中所产生的数据规模日益扩大,所拥有的数据源驱动了深层次分析的需求;同时大数据、云计算技术的不断完善,都促进了对数据进行深度挖掘,提取数据的特征,利用特征让机器具有自主学习与思考的能力。
按照计算方式的不同,可以分为三个计算时代:
- 1990s~1940s 打卡阶段(The Tabulating Era) 机械式
- 1950s~现在 编程阶段(The Programming Era) 自主输入
- 2011~将来 认知计算阶段(The Cognitive Era) 自动思考
“大脑”项目:Think & Learn
- 2006 IBM Watson 利用自然语言分析,让机器自动推理事件与回答问题;涵盖医疗、数据分析、“危险游戏”等。
- 2011 Google 谷歌大脑 通过神经网络,能够让更多的用户拥有完美的、没有错误的使用体验;谷歌无人驾驶汽车、谷歌眼镜等。
- 2012 Baidu 百度大脑 融合深度学习算法、数据建模、大规模GPU并行化平台等技术,构造起深度神经网络。
一、认知计算的概念:
- 人工智能与认知计算的区别:
- 人工,以人为主导;认知,机器对事物与外界的理解,交互的能力
- 编程能力;学习与推理的能力
- 确定性结果;概率性结果
- 人并未参与;人、机器、环境之间的交互
- 图灵测试或仿造人测量;实际应用中的测试
2. 认知计算所涉及的技术领域:
- 神经科学:机器模拟人脑神经元的思考过程;
- 超计算:超级快速计算和处理能力;
- 纳米技术:芯片、系统等底层架构设计。
3. 认知计算系统的组成:
需要一个能够理解、学习、推理的“大脑”,一个物物相连的外部环境,大脑与环境之间互相感知与交互。
4. 认知计算的应用:
- 典型系统特征:大规模、复杂、人与外界交互、大量非结构化数据、输出结果不定的系统;
- 生命科学领域:医疗、保险;
- 社会机构领域:金融银行、政府、能源、教育、商业、交通等。
5. 案例:Watson-历史上第一个认知系统
- 自然语言处理
- 问答技术
- 高性能计算
- 知识的表达和推理
- 机器学习
- 非结构化信息管理
6. 认知系统的五个核心功能:
- 创造更深的人工参与
- 测量和提升专业知识
- 认知融入产品和服务
- 实现认知过程和操作
- 加强探索和发现
7. 认知计算系统的挑战与要求:
8. 认知计算系统的架构:
- 底层架构:芯片设计(GPU、FPGA、ASIC、POWER8)
- 基础设施:云环境、超级计算节点
- 组织构架:caffe、Theano、Torch等
- 库文件:数据库、工具、包等
- 应用层:信息采集的有效性、人机交互界面、搜索引擎等
二、人工智能的概述:
人的大脑科学&计算机科学——>可视化、心理学、神经元组成、深度学习
1. 人工智能发展过程:
重要的时间节点与人物:
- 1950-1956:两个重要的人物,诺伯特·维纳(控制论)和克劳德·艾尔伍德·香农(信息论)将事物从更高的层次进行抽象,奠定了AI坚实的理论基础;
- 1950:图灵,提出了图灵测试的基本测试方法;
- 1956:达特茅斯会议第一次正式提出AI的概念;
- 1956-1974:AI得到极大发展,提出了许多新的理论,包括自然语言处理、reasoning as search、micro-worlds等;
- 1974-1980:由于发展迅速所带来的副作用日益凸显,关于机器代替人类的社会、伦理等问题、投资人看不到长期受益问题等导致其发展陷入低谷;
- 1980-1987:在日本的第五代项目提出,结合AI来发展现代工业生产,又给AI界打了一针强心剂(专家系统);
- 1987-1993:计算机的高速发展,给传统硬件组成的研究系统带来巨大挑战,更多的人将注意力放在计算能力更强、价格更为便宜的普通计算机上;
- 1995:Sparse coding,将计算机科学理论与生物神经科学理论相结合;
- 2006:Deep Learning,含多隐层的多层感知器的深度学习结构;
- 2007:GPU CUDA,CPU与GPU并用的“协同处理”发展的统一计算设备架构;
- 2011:Google Brain,谷歌在人工智能领域开发出的一款模拟人脑的软件。
2. 机器学习的概述:
机器学习两种传统分类:
- 监督学习:已知label来对事物进行分类;
- 无监督学习:未知label来学习事物特征。
应用领域:图像识别、计算机视觉、语音识别、生物监控、机器人控制、经验科学、智能医疗等。
机器学习的流程图(有监督学习):
分类算法(Classification):
- 支持向量机(SVM)
- 神经网络(Neural Network)
- 朴素贝叶斯(Naiive Bayes)
- 贝叶斯网络(Bayesian network)
- 逻辑回归(Logistic regression)
- 随机森林(Randomized Forests)
- 决策树(Boosted Decision Trees)
- k近邻(K-nearest neighbor)
- RBMs
聚类算法(Clustering):
- K-means
- 合并聚类(agglomerative clustering)
- 均值漂移聚类(mean shift clustering)
- 谱聚类(spectral clustering)
泛化问题(Generalization):过拟合、欠拟合
3. 深度学习的概述:
深度学习是机器学习的一个分支,通过利用多层处理的复杂结构,基于一系列的算法来建立高维抽象的模型。其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习的概念由Hinton等人于2006年提出。基于深度置信网络(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络(CNN)是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。
典型的深度学习:卷积神经网络CNN
实验已经证明,CNN在图像和语音处理中能够取得比传统方法更好的识别效果,也产生了许多著名的深度学习网络VGG-Net、AlexNet等。
VGG-Net与AlexNet的对比分析:
深度学习网络 | AlexNet | VGG-Net |
产生背景 |
2012年,deep learning的大牛教授 Geoffrey Hinton的学生Alex Krizhevsky设计了一个8层的CNN,并把它用于ImageNet的image classification,直接把当时最好算法的错误率差不多减半。 |
Andrew Zisserman 教授的组 (Oxford),VGG-Net 在2014年的 ILSVRC localization and classification 两个问题上分别取得了第一名和第二名。 |
结构层次 | 总共有8层,由5层 convolutional layer,2层 fully connected layer,和最后一层 label layer (1000个node, 每个node代表ImageNet中的一个类别) 组成。 | VGG-Net使用更多的层,通常有16-19层,所有 convolutional layer 使用同样大小的 convolutional filter。 |
结构示意 |
|
|
特征描述 |
中间层描述了图片的局部特征,全连接层表示了图像的全局特征。 |
业界牛人:
开发架构:
机器学习的常用库和数据集:
以上是关于认知计算概论的主要内容,如果未能解决你的问题,请参考以下文章