Attention Please!TWO HUNDREDS OF machine learning turorial summary
Posted hugeng007
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Attention Please!TWO HUNDREDS OF machine learning turorial summary相关的知识,希望对你有一定的参考价值。
Machine Learning
The First Column | The Second Column |
---|---|
Machine Learning 1 | 从机器学习入手 |
Machine Learning 2 | 机器学习很有趣! |
Machine Learning 3 | 机器学习规则:ML工程的最佳实践 |
Machine Learning 4 | 机器学习速成课程:第一部分 |
Machine Learning 5 | 第二部分;伯克利机器学习 |
Machine Learning 6 | 第三部分;伯克利机器学习 |
Machine Learning 7 | 机器学习理论及其应用简介:用一个小例子进行视觉教程 |
Machine Learning 8 | [机器学习的简单指南](https://monkeylearn.com/blog/a-gentle-guide-to-machine-learning/ |
Machine Learning 9 | 我应该使用哪种机器学习算法? |
Machine Learning 10 | 机器学习入门 |
Machine Learning 11 | 初学者机器学习教程 |
激活函数和Dropout函数
The First Column | The Second Column |
---|---|
1 | Sigmoid神经元 |
2 | 激活函数在神经网络中的作用是什么? |
3 | 神经网络中常见的激活函数的优缺点比较列表 |
4 | 激活函数及其类型对比 |
5 | 理解对数损失 |
6 | 损失函数;斯坦福CS231n |
7 | L1与L2损失函数 |
8 | 交叉熵成本函数 |
偏差(bias)
The First Column | The Second Column |
---|---|
1 | 偏差在神经网络中的作用 |
2 | [神经网络中的偏差节点](http://makeyourownneuralnetwork.blogspot.com/2016/06/bias-nodes-in-neural-networks.html] |
3 | 什么是人工神经网络的偏差? |
感知器
The First Column | The Second Column |
---|---|
1 | 感知器 |
2 | 感知器 |
3 | 单层神经网络(感知器) |
4 | 从Perceptrons到Deep Networks |
回归
The First Column | The Second Column |
---|---|
1 | 线性回归分析介绍 |
2 | 线性回归 |
3 | 线性回归 |
4 | Logistic回归 |
5 | 机器学习的简单线性回归教程 |
6 | 机器学习的Logistic回归教程 |
7 | Softmax回归 |
梯度下降
The First Column | The Second Column |
---|---|
1 | 在梯度下降中学习 |
2 | 梯度下降 |
3 | 如何理解梯度下降算法 |
4 | 梯度下降优化算法概述 |
5 | 优化:随机梯度下降(斯坦福CS231n) |
生成学习(GenerativeLearning)
The First Column | The Second Column |
---|---|
1 | 生成学习算法(斯坦福CS229) |
2 | [朴素贝叶斯分类器的实用解释] (https://monkeylearn.com/blog/practical-explanation-naive-bayes-classifier/) |
支持向量机
The First Column | The Second Column |
---|---|
1 | 支持向量机(SVM)简介 |
2 | 支持向量机(斯坦福CS229) |
3 | 线性分类:支持向量机,Softmax |
反向传播
The First Column | The Second Column |
---|---|
1 | 你能给出神经网络反向传播算法的直观解释吗 |
2 | 反向传播算法的工作原理 |
3 | 通过时间反向传播和消失的渐变 |
4 | 时间反向传播的简单介绍 |
5 | 反向传播,直觉(斯坦福CS231n) |
深度学习
The First Column | The Second Column |
---|---|
1 | YN2深度学习指南 |
2 | 深度学习论文阅读路线图 |
3 | Nutshell中的深度学习 |
4 | 深度学习教程 |
5 | 什么是深度学习? |
6 | 人工智能,机器学习和深度学习之间有什么区别 |
7 | 深度学习–简单介绍 |
最优化和降维
The First Column | The Second Column |
---|---|
1 | 数据降维减少的七种技术 |
2 | 主成分分析(斯坦福CS229) |
3 | Dropout:一种改善神经网络的简单方法 |
4 | 如何训练你的深度神经网络? |
长短期记忆(LSTM)
The First Column | The Second Column |
---|---|
1 | 长短期记忆网络的通俗介绍 |
2 | 了解LSTM 神经网络Networks |
3 | 探索LSTM |
4 | 任何人都可以学习用Python编写LSTM-RNN |
卷积神经网络(CNN)
The First Column | The Second Column |
---|---|
1 | 卷积网络介绍 |
2 | 深度学习和卷积神经网络 |
3 | Conv Nets:模块化视角 |
4 | [了解卷积](http://colah.github.io/posts/2014-07-Understanding-Convolutions/) |
递归神经网络(RNN)
The First Column | The Second Column |
---|---|
1 | 递归神经网络教程 |
2 | 注意和增强的递归神经网络 |
3 | 递归神经网络的不合理有效性 |
4 | 深入了解递归神经网络 |
强化学习
The First Column | The Second Column |
---|---|
1 | 强化学习初学者入门及其实施指南 |
2 | 强化学习教程 |
3 | 学习强化学习 |
4 | 深度强化学习:来自像素的乒乓球 |
生成对抗网络(GAN)
The First Column | The Second Column |
---|---|
1 | 对抗机器学习简介 |
2 | 什么是生成性对抗网络? |
3 | 滥用生成对抗网络制作8位像素艺术 |
4 | Generative Adversarial Networks简介(TensorFlow中的代码) |
5 | 初学者的生成对抗网络 |
多任务学习
The First Column | The Second Column |
---|---|
1 | 深度神经网络中多任务学习概述 |
NLP
The First Column | The Second Column |
---|---|
1 | 自然语言处理很有趣! |
2 | 自然语言处理神经网络模型入门 |
3 | 自然语言处理权威指南 |
4 | 自然语言处理简介 |
5 | 自然语言处理教程 |
6 | 自然语言处理(NLP)来自Scratch |
Python
The First Column | The Second Column |
---|---|
1 | 机器学习速成课程 |
2 | 令人敬畏的机器学习 |
3 | 使用Python掌握机器学习的7个步骤 |
4 | 一个示例机器学习笔记 |
5 | 使用Python进行机器学习 |
实战案例
The First Column | The Second Column |
---|---|
1 | 如何在Python中从头开始实现感知器算法 |
2 | 在Python中使用Scratch实现神经网络 |
3 | 使用11行代码在Python中实现神经网络 |
4 | 使用Python实现你自己的k-Nearest Neighbor算法 |
5 | 来自Scatch的ML |
6 | Python机器学习(第2版)代码库 |
Scipy和numpy
The First Column | The Second Column |
---|---|
1 | Scipy讲义 |
2 | Python Numpy教程 |
3 | Numpy和Scipy简介 |
4 | Python中的科学家速成课程 |
scikit学习
The First Column | The Second Column |
---|---|
1 | PyCon scikit-learn教程索引 |
2 | scikit-learn分类算法 |
3 | scikit-learn教程 |
4 | 简短的scikit-learn教程 |
Tensorflow
The First Column | The Second Column |
---|---|
1 | Tensorflow教程 |
2 | TensorFlow简介 - CPU与GPU |
3 | TensorFlow |
4 | Tensorflow中的RNN |
5 | 在TensorFlow中实现CNN进行文本分类 |
6 | 如何使用TensorFlow运行文本摘要 |
PyTorch
The First Column | The Second Column |
---|---|
1 | PyTorch教程 |
2 | [PyTorch的简单介绍](http://blog.gaurav.im/2017/04/24/a-gentle-intro-to-pytorch/) |
3 | 教程:PyTorch中的深度学习 |
4 | PyTorch示例 |
5 | PyTorch教程 |
6 | 深度学习研究人员的PyTorch教程 |
以上是关于Attention Please!TWO HUNDREDS OF machine learning turorial summary的主要内容,如果未能解决你的问题,请参考以下文章
RuntimeError: lines.type().is_cuda()INTERNAL ASSERT FAILED at ““, please report a bug to PyTorch.
RuntimeError: lines.type().is_cuda()INTERNAL ASSERT FAILED at ““, please report a bug to PyTorch.