Skip to content

深度学习

课程简介

深度学习课程深入探讨神经网络的理论基础和实际应用,包括前馈网络、卷积网络、循环网络等现代深度学习技术。

学习内容

神经网络基础

  • 感知机与多层感知机
  • 反向传播算法
  • 激活函数
  • 损失函数

深度网络架构

  • 卷积神经网络(CNN)
  • 循环神经网络(RNN)
  • 长短期记忆网络(LSTM)
  • Transformer架构

高级主题

  • 注意力机制
  • 生成对抗网络(GAN)
  • 变分自编码器(VAE)
  • 强化学习

学习笔记

第一章:神经网络基础

1.1 感知机

单层感知机

y=f(i=1nwixi+b)

其中:

  • xi 是输入特征
  • wi 是权重
  • b 是偏置
  • f 是激活函数

激活函数

  • Sigmoid: σ(x)=11+ex
  • ReLU: ReLU(x)=max(0,x)
  • Tanh: tanh(x)=exexex+ex

1.2 反向传播算法

前向传播

z(l)=W(l)a(l1)+b(l)a(l)=f(z(l))

反向传播

δ(l)=Jz(l)=δ(l+1)(W(l+1))Tf(z(l))

权重更新

JW(l)=δ(l)(a(l1))TJb(l)=δ(l)

第二章:卷积神经网络

2.1 卷积操作

二维卷积

(fg)(i,j)=mnf(m,n)g(im,jn)

卷积层输出尺寸

Hout=Hin+2PKS+1Wout=Win+2PKS+1

其中:

  • Hin,Win 是输入高度和宽度
  • K 是卷积核大小
  • P 是填充大小
  • S 是步长

2.2 池化操作

最大池化

yi,j=max(m,n)Ri,jxm,n

平均池化

yi,j=1|Ri,j|(m,n)Ri,jxm,n

第三章:循环神经网络

3.1 RNN基本结构

隐藏状态更新

ht=f(Whhht1+Wxhxt+bh)

输出计算

yt=Whyht+by

3.2 LSTM网络

遗忘门

ft=σ(Wf[ht1,xt]+bf)

输入门

it=σ(Wi[ht1,xt]+bi)C~t=tanh(WC[ht1,xt]+bC)

细胞状态更新

Ct=ftCt1+itC~t

输出门

ot=σ(Wo[ht1,xt]+bo)ht=ottanh(Ct)

实践项目

  • [ ] 实现多层感知机
  • [ ] 构建CNN图像分类器
  • [ ] 训练RNN语言模型
  • [ ] 复现Transformer模型

参考资料

  • 教材:《Deep Learning》- Goodfellow, Bengio, Courville
  • 在线课程:CS231n Stanford, CS224n Stanford
  • 框架:PyTorch, TensorFlow, Keras

最后更新:2024年9月9日

基于 VitePress 构建