- 课时1 深度学习框架简介
- 课时2 PyTorch功能演示
- 课时3 开发环境安装(简介)
- 课时4 简单回归问题-1
- 课时5 简单回归问题-2
- 课时6 回归问题实战
- 课时7 分类问题引入-1
- 课时8 分类问题引入-2
- 课时9 手写数字识别初体验-1
- 课时10 手写数字识别初体验-2
- 课时11 手写数字识别初体验-3
- 课时12 手写数字识别初体验-4
- 课时13 手写数字识别初体验-5
- 课时14 张量数据类型-1
- 课时15 张量数据类型-2
- 课时16 创建Tensor-1
- 课时17 创建Tensor-2
- 课时18 索引与切片-1
- 课时19 索引与切片-2
- 课时20 维度变换-1
- 课时21 维度变换-2
- 课时22 维度变换-3
- 课时23 维度变换-4
- 课时24 Broadcasting-1
- 课时25 Broadcasting-2
- 课时26 Broadcasting-3
- 课时27 合并与分割-1
- 课时28 合并与分割-2
- 课时29 数学运算-1
- 课时30 数学运算-2
- 课时31 属性统计-1
- 课时32 属性统计-2
- 课时33 高阶操作
- 课时34 什么是梯度-1
- 课时35 什么是梯度-2
- 课时36 常见函数的梯度
- 课时37 激活函数与Loss的梯度-1
- 课时38 激活函数与Loss的梯度-2
- 课时39 激活函数与Loss的梯度-3
- 课时40 激活函数与Loss的梯度-4
- 课时41 感知机的梯度推导-1
- 课时42 感知机的梯度推导-2
- 课时43 链式法则
- 课时44 反向传播算法-1
- 课时45 反向传播算法-2
- 课时47 Logistic Regression
- 课时48 交叉熵-1
- 课时49 交叉熵-2
- 课时50 多分类问题实战
- 课时52 激活函数与GPU加速
- 课时53 MNIST测试实战
- 课时54 Visdom可视化
- 课时55 过拟合与欠拟合
- 课时56 交叉验证-1
- 课时57 交叉验证-2
- 课时58 Regularization
- 课时59 动量与学习率衰减
- 课时60 Early stopping dropout等
- 课时61 什么是卷积-1
- 课时62 什么是卷积-2
- 课时63 卷积神经网络-1
- 课时64 卷积神经网络-2
- 课时65 卷积神经网络-3
- 课时66 池化层与采样
- 课时67 BatchNorm-1
- 课时68 BatchNorm-2
- 课时69 经典卷积网络 LeNet5AlexNet VGG GoogLeNet-1
- 课时70 经典卷积网络 LeNet5AlexNet VGG GoogLeNet-2
- 课时71 ResNet与DenseNet-1
- 课时72 ResNet与DenseNet-2
- 课时73 nn.Module模块-1
- 课时74 nn.Module模块-2
- 课时75 数据增强
- 课时76 CIFAR10数据集介绍
- 课时77 卷积神经网络实战-1
- 课时78 卷积神经网络实战-2
- 课时79 卷积神经网络训练
- 课时80 ResNet实战-1
- 课时81 ResNet实战-2
- 课时82 ResNet实战-3
- 课时84 实战小结
- 课时85 时间序列表示方法
- 课时86 RNN原理-1
- 课时87 RNN原理-2
- 课时88 RNN Layer使用-1
- 课时89 RNN Layer使用-2
- 课时90 时间序列预测实战
- 课时91 梯度弥散与梯度爆炸
- 课时92 LSTM原理-1
- 课时93 LSTM原理-2
- 课时94 LSTM Layer使用
- 课时95 情感分类问题实战
- 课时96 Pokemon数据集
- 课时97 数据预处理
- 课时98 自定义数据集实战-1
- 课时99 自定义数据集实战-2
- 课时100 自定义数据集实战-3
- 课时101 自定义数据集实战-4
- 课时102 自定义数据集实战-5
- 课时103 自定义网络
- 课时104 自定义网络训练与测试
- 课时105 自定义网络实战
- 课时106 迁移学习
- 课时107 迁移学习实战
- 课时108 无监督学习
- 课时109 Auto-Encoder原理
- 课时110 Auto-Encoder变种
- 课时111 Adversarial Auto-Encoder
- 课时112 变分Auto-Encoder引入
- 课时113 Reparameterization trick
- 课时114 变分自编码器VAE
- 课时115 Auto-Encoder实战-1
- 课时116 Auto-Encoder实战-2
- 课时117 变分Auto-Encoder实战-1
- 课时118 变分Auto-Encoder实战-2
- 课时119 数据的分布
- 课时120 画家的成长历程
- 课时121 GAN原理
- 课时122 纳什均衡-D
- 课时123 纳什均衡-G
- 课时124 JS散度的缺陷
- 课时125 EM距离
- 课时126 WGAN与WGAN-GP
- 课时127 GAN实战-GD实现
- 课时128 GAN实战-网络训练
- 课时130 WGAN-GP实战
- 课时138 感知机的提出
- 课时139 BP神经网络
- 课时140 CNN和LSTM的发明
- 课时141 人工智能的低潮
- 课时142 深度学习的诞生
- 课时143 深度学习的繁荣
- 课时144 numpy实战BP网络-权值的表示
- 课时145 多层感知机的实现
- 课时146 多层感知机前向传播
- 课时148 多层感知机反向传播-2
- 课时149 多层感知机反向传播-3
- 课时150 多层感知机的训练
- 课时151 多层感知机的测试
随着深度学习的发展,深度学习框架开始大量的出现。尤其是近两年,Google、Facebook、Microsoft等巨头都围绕深度学习重点投资了一系列新兴项目,他们也一直在支持一些开源的深度学习框架。目前研究人员正在使用的深度学习框架不尽相同,有 TensorFlow 、Pytorch、Caffe、Theano、Keras等。
这些讲座长度相对简短,重点突出,非常适合碎片时间学习。通过这系列课程,我们将学习如何用PyTorch构建神经网络,并且我们非常接近于从头开始编写神经网络。这将帮助我们对神经网络和深度学习有更深入的了解。
课程每两天发布一节,目前已发布的内容包括:
PyTorch先修要求——神经网络编程系列教学大纲
PyTorch的解释——Python深度学习神经网络API
PyTorch安装——快速简便
CUDA的解释——为什么深度学习要使用GPU
Tensors 的解释——深度学习的数据结构
Rank,Axes和Shape的解释——深度学习的延伸
CNN张量形状的解释——卷积神经网络和特征映射
神经网络编程系列课程目录
第1部分:PyTorch和Tensors
第1节:PyTorch简介
PyTorch——Python深度学习神经网络API
PyTorch安装——快速、简便地安装PyTorch
CUDA——为什么深度学习使用GPU
第2节: Tensors
Tensors——深度学习的数据结构
Rank, Axes和Shape——深度学习的延伸
PyTorch Tensors——神经网络编程
创建PyTorch Tensors——最佳选择
PyTorchTensors——Reshaping操作
PyTorch Tensors——Element-wise Operations操作
PyTorch张Tensors——Reduction 和 Access 操作
第2部分:使用PyTorch进行神经网络和深度学习
第1节:数据和数据处理
Fashion MNIST——机器学习数据集
PyTorch torchvision——带数据集和数据加载器的ETL
用于机器学习的PyTorch数据集和数据加载器
第2节:神经网络和深度学习
使用PyTorch构建神经网络
PyTorch中的CNN层的属性参数
PyTorch中的CNN前向传播实现
前向传播——将单个图像传递给神经网络
神经网络批处理——传递图像的batch
卷积神经网络张量变换
第3节:训练神经网络
使用PyTorch训练卷积神经网络
使用混淆矩阵分析CNN的结果
神经网络编程:第1部分
神经网络编程系列的第一部分包括2节内容。
第一节将介绍PyTorch及其功能,解释为什么应该首先使用PyTorch。 此外,还将介绍CUDA,这是一个在Nvidia GPU上进行并行计算的软件平台。如果你对为什么深度学习首先使用GPU有疑问,CUDA的部分将介绍这些细节!
第二节全部是关于Tensor,即深度学习的数据结构。了解张量对于成为深度学习专业人士至关重要,因此这部分将详细介绍。
当然,我们将使用PyTorch,但是我们在本节中学到的概念和操作对于理解神经网络是必要的,并且将适用于任何深度学习框架。
神经网络编程:第2部分
神经网络编程系列的第二部分将带领学习者开始构建第一个深度学习项目。
第二部分由三节内容组成。
第一部分将涵盖深度学习的数据和数据处理,以及这些与你的深度学习项目的关系。由于张量是深度学习的数据结构,我们将利用从第一部分中学到的有关张量的所有知识。我们将介绍要用于构建用于图像分类的卷积神经网络的Fashion-MNIST数据集。