原文链接:Python深度学习https://mp.weixin.qq.com/s?__biz=MzUzNTczMDMxMg==&mid=2247608512&idx=1&sn=16e2a0bb6b0a1f6b513be173730090c0&chksm=fa826927cdf5e031b702deb04eef5cb0055f65b0d6e4c33588949ee81c7380ee044caeafd8c7&token=2068755524&lang=zh_CN#rd
前沿
第一:注意力(Attention)
1、注意力机制的背景和动机
2、注意力机制的基本原理
3、注意力机制的主要类型
4、注意力机制的优化与变体
5、注意力机制的可解释性与可视化技术
第二:Transformer模型
1、Transformer模型的提出背景
2、Transformer模型拓扑结构
2、Transformer模型工作原理
3、自然语言处理(NLP)领域的Transformer模型
4、计算视觉(CV)领域的Transformer模型
第三:生成式模型
1、变分自编码器VAE
2、生成式对抗网络GAN
3、扩散模型Diffusion Model
4、跨模态图像生成DALL.E
第四:目标检测算法
1、变分自编码器VAE
2、生成式对抗网络GAN
3、扩散模型Diffusion Model
4、跨模态图像生成DALL.E
第五:图神经网络
1. 图神经网络的背景和基础知识
2. 图的基本概念和表示
3. 图神经网络的工作原理
4. 图卷积网络(GCN)的工作原理。
5. 图神经网络的变种和扩展
第六:强化学习
1、强化学习的基本概念和背景
2、Q-Learning
3、深度Q网络(DQN)
第七:物理信息神经网络(PINN)
1、物理信息神经网络的背景
2、PINN工作原理
3. 常用的PINN库和框架
第八:神经架构搜索(Neural Architecture Search, NAS)
1、NAS的背景和动机
2、NAS的关键技术
3、NAS的基本流程
第九:深度学习模型可解释性与可视化方法
1、类激活映射CAM
2、t-SNE的基本概念及使用t-SNE可视化深度学习模型的高维特征。