课程费用

7800.00 /人

课程时长

3

成为教练

课程简介

机器学习(深度学习)算法和应用

目标收益

幻灯片算法讲解,结合代码分析,剖析算法原理;实际应用举例和和业界趋势分析;成熟开源框架介绍和实例(Numpy, Pandas, Sklearn, Keras, TensorFlow,)。
内容分7大部分:DNN 入门和基本模型;模型评估、调参和优化;卷积神经网络 CNN 原理和实践;循环神经网络RNN原理和实践;GAN;无监督学习;增强学习。
完成课程后,学员能够了解深度学习的流程步骤;理解用深度学习方法解决实际问题的方法和思路;初步掌握基础深度学习的算法和实现方法,并应用于多种项目中。

培训对象

对深度学习算法原理和应用感兴趣,具有一定编程(Python)和数学基础(线性代数、微积分、概率论)的技术人员。

课程大纲

PART I: 入门和基本 DNN 模型(略讲)
1. 深度学习概要
什么是深度学习 & 与机器学习的异同
2. 多层感知器模型 Multi-Layer Perceptron – MLP
神经元 权重和激活 Neurons Weight Activation
神经元网络 Neuron Networks
训练网络 Training Networks
Back-propagation 算法和计算图
多种自适应学习率算法 Adaptive Learning Rate
3. 用 Keras 搭建 MLP
载入数据
定义-编译-训练-测试模型
PART II: 评估、调参和优化模型 1. 评估深度学习模型的性能
2. 切分数据集合 Data Splitting
3. 数据集(构建、清洗、评估等)
4. 模型结构选择、搭建与调优、训练调参方法技巧等
5. 通用深度学习工具集 Keras + Scikit-Learn
用 cross-validation 评估模型
用 grid-search 微调超参数
6. MLP例子
- 用 MLP 进行多元分类 – 植物品种分类
- 用 MLP 进行二元分类 – 声呐探测物体信号分析
- 用 MLP 进行回归 – Boston 房屋价格预测

7. 序列化保存模型
8. 通过 check point 机制获取最佳模型
9. 通过绘制模型历史理解训练行为
10. 通过 dropout regularization 降低模型过拟合
11. 选取不同的 Learning Rate Schedule 提升模型性能


PART III: 卷积神经网络 CNN
1 CNN 原理和构造(概述):
- 核 Filter 和卷积运算 Convolutional Layer
- 特征图 Feature Maps
- 池化层 Pooling
- 全连接层 Full Connected Layer
- Dropout 和 Batch Normalization
- CNN 最佳实践

2 CNN 实践
- 项目:用 CNN 进行手写体识别
- 练习:在 CNN 图像识别中通过 Image Augmentation 技术提升模型性能
项目:用 CNN 进行图片物体识别
XCeption 架构
ResNet
- 项目:用 CNN电影评论情绪预测
PART IV: 循环神经网络 Recurrent Neural Networks – RNN 1 循环神经网络 Recurrent Neural Networks
- RNN 原理一:基本 RNN
- 处理序列(Sequence)数据的神经网络
- 循环神经网 RNN 架构
- RNN训练:如何在训练中获得稳定的梯度下降
- RNN 网络演化历史:RNN,LSTM,GRU 结构比较和分析

2 RNN 实践一:RNN 回归
- 项目:用 MLP 进行时间序列预测
- 项目:用长短记忆网络(Long-Short Term Memory, LSTM)进行时间序列预测
1) 用LSTM进行回归
2)用LSTM 序列窗口(Window method)进行回归
3) 用 LSTM 时间步长(Time Step)进行回归
4) 用 LSTM记忆(Memory)进行回归 & Stacked LSTM

3 RNN 实践二:RNN 分类
- 项目:对电影评论进行序列分类 Sequence Classification
- 项目:使用 dropout LSTM
- 项目:结合使用 CNN 和 RNN 进行序列分类

4 RNN 实践三:用 RNN 进行文本生成 – one char
- 项目:用LSTM进行 one-char生成
- 项目:用LSTM feature-window进行one-char生成
- 项目:用LSTM time-step进行 one-char生成
- 项目:用 LSTM 批内样本间保持状态进行 one-char 生成
- 项目:有状态 LSTM进行 one-char 生成
- 项目:变长输入 LSTM

5 RNN 实践四:RNN 进行文本生成 – sequence
- 项目:用 LSTM 生成文本序列
- 项目:深度 LSTM 生成文本
- 讨论:如何进一步提高模型 performance

6 更多 RNN 模型:
- -Sequence-to-Sequence 结构和实现
- Attention 机制
- image captioning 图像字幕
- machine translation 机器翻译
- dialogue generation 对话生成
- 神经机器翻译 Neural Machine Translation
- Query泛化 和 Q&A: multiple perspective 机制

PART V: 无监督学习概念、方法和例子
无监督学习方法
Word Embedding
Word2Vec:前生今世 - 起因和效果
Word2Vec:原理和架构
Word2Vec 训练
Auto-Encoder
Auto-Encoder 概念和训练
全连接 Auto-Encoder
Variational Auto Encoder (VAE)
Deep Convolutional VAE
PART I: 入门和基本 DNN 模型(略讲)

1. 深度学习概要
什么是深度学习 & 与机器学习的异同
2. 多层感知器模型 Multi-Layer Perceptron – MLP
神经元 权重和激活 Neurons Weight Activation
神经元网络 Neuron Networks
训练网络 Training Networks
Back-propagation 算法和计算图
多种自适应学习率算法 Adaptive Learning Rate
3. 用 Keras 搭建 MLP
载入数据
定义-编译-训练-测试模型
PART II: 评估、调参和优化模型
1. 评估深度学习模型的性能
2. 切分数据集合 Data Splitting
3. 数据集(构建、清洗、评估等)
4. 模型结构选择、搭建与调优、训练调参方法技巧等
5. 通用深度学习工具集 Keras + Scikit-Learn
用 cross-validation 评估模型
用 grid-search 微调超参数
6. MLP例子
- 用 MLP 进行多元分类 – 植物品种分类
- 用 MLP 进行二元分类 – 声呐探测物体信号分析
- 用 MLP 进行回归 – Boston 房屋价格预测

7. 序列化保存模型
8. 通过 check point 机制获取最佳模型
9. 通过绘制模型历史理解训练行为
10. 通过 dropout regularization 降低模型过拟合
11. 选取不同的 Learning Rate Schedule 提升模型性能


PART III: 卷积神经网络 CNN

1 CNN 原理和构造(概述):
- 核 Filter 和卷积运算 Convolutional Layer
- 特征图 Feature Maps
- 池化层 Pooling
- 全连接层 Full Connected Layer
- Dropout 和 Batch Normalization
- CNN 最佳实践

2 CNN 实践
- 项目:用 CNN 进行手写体识别
- 练习:在 CNN 图像识别中通过 Image Augmentation 技术提升模型性能
项目:用 CNN 进行图片物体识别
XCeption 架构
ResNet
- 项目:用 CNN电影评论情绪预测
PART IV: 循环神经网络 Recurrent Neural Networks – RNN
1 循环神经网络 Recurrent Neural Networks
- RNN 原理一:基本 RNN
- 处理序列(Sequence)数据的神经网络
- 循环神经网 RNN 架构
- RNN训练:如何在训练中获得稳定的梯度下降
- RNN 网络演化历史:RNN,LSTM,GRU 结构比较和分析

2 RNN 实践一:RNN 回归
- 项目:用 MLP 进行时间序列预测
- 项目:用长短记忆网络(Long-Short Term Memory, LSTM)进行时间序列预测
1) 用LSTM进行回归
2)用LSTM 序列窗口(Window method)进行回归
3) 用 LSTM 时间步长(Time Step)进行回归
4) 用 LSTM记忆(Memory)进行回归 & Stacked LSTM

3 RNN 实践二:RNN 分类
- 项目:对电影评论进行序列分类 Sequence Classification
- 项目:使用 dropout LSTM
- 项目:结合使用 CNN 和 RNN 进行序列分类

4 RNN 实践三:用 RNN 进行文本生成 – one char
- 项目:用LSTM进行 one-char生成
- 项目:用LSTM feature-window进行one-char生成
- 项目:用LSTM time-step进行 one-char生成
- 项目:用 LSTM 批内样本间保持状态进行 one-char 生成
- 项目:有状态 LSTM进行 one-char 生成
- 项目:变长输入 LSTM

5 RNN 实践四:RNN 进行文本生成 – sequence
- 项目:用 LSTM 生成文本序列
- 项目:深度 LSTM 生成文本
- 讨论:如何进一步提高模型 performance

6 更多 RNN 模型:
- -Sequence-to-Sequence 结构和实现
- Attention 机制
- image captioning 图像字幕
- machine translation 机器翻译
- dialogue generation 对话生成
- 神经机器翻译 Neural Machine Translation
- Query泛化 和 Q&A: multiple perspective 机制

PART V: 无监督学习概念、方法和例子
无监督学习方法
Word Embedding
Word2Vec:前生今世 - 起因和效果
Word2Vec:原理和架构
Word2Vec 训练
Auto-Encoder
Auto-Encoder 概念和训练
全连接 Auto-Encoder
Variational Auto Encoder (VAE)
Deep Convolutional VAE

课程费用

7800.00 /人

课程时长

3

预约体验票 我要分享

近期公开课推荐

近期公开课推荐

提交需求