从头开始代码构建GPT! |
文章目录
- 一. 从头开始代码构建GPT!
- 二. 参考文献
一. 从头开始代码构建GPT!
- 我们构建了一个生成式预训练Transformer (GPT),遵循论文《Attention is All You Need》和OpenAI的GPT-2 / GPT-3的方法。我们讨论了与ChatGPT的联系,ChatGPT已经风靡全球。我们还观察了GitHub Copilot(它本身也是一个GPT)如何帮助我们编写GPT,真是妙趣横生:D!我建议大家先观看早期的makemore视频,以熟悉自回归语言建模框架和张量及PyTorch nn的基础知识,因为我们在本视频中默认大家已经具备这些知识。
- 链接:
- 视频的Google Colab: