AI之AI by Hand:AI by Hand(手动自定义AI算法的数学逻辑)的简介、使用方法、案例应用之详细攻略
目录
AI by Hand的简介
AI by Hand的使用方法
1、解读混合专家(MoE)
2、解读LSTM (Long Short-Term Memory)
AI by Hand的案例应用
AI by Hand的简介
AI by Hand的背景起源于这样一个现象:目前每周发表的AI论文数量极其庞大,即便是计算机科学领域的教授也难以完全理解这些内容。这些论文通常包含大量的数学公式、图表、表格、引文以及长篇附录,使得信息的消化变得困难。
为了解决这一问题,Tom Yeh教授提出了一种策略,即AI by Hand。这个策略的核心是提取论文中的关键点,并通过设计小测验来加深对这些要点的理解。其中,Tom Yeh教授最喜欢的形式是“完形填空测试”。在过去几个月里,Tom Yeh教授与几位AI教育者合作,定制了AI by Hand练习。这些材料已经在世界各地的许多教室中得到使用和赞赏。尽管定制过程是手工进行的。目前,Tom Yeh教授正在考虑开发一款工具,使人们能够使用自定义数字和解决方案来创建自己的AI by Hand练习。在评估了多种技术后,他决定采用Google表格来实现这一目标,旨在最大限度地扩大覆盖面并拓宽访问范围。由于这个工具还处于早期阶段,Tom Yeh教授非常欢迎大家的反馈,并期待了解大家对其他主题的兴趣。
AI by Hand的宗旨是帮助初学者理解AI算法的概念和数学基础,并通过开发这款工具,让每个人都能自定义创建自己的练习,从而更好地掌握AI知识。
地址:https://aibyhand.substack.com/
AI by Hand的使用方法
1、解读混合专家(MoE)
2、解读LSTM (Long Short-Term Memory)
LSTM是处理长序列数据最有效的神经网络架构,在Transformer模型兴起之前一直占据主导地位。
LSTM属于递归神经网络 (RNN) 的一种,按照序列顺序以递归的方式处理数据。而Transformer则采用自注意力机制,放弃了递归,可以并行处理数据。通过具体数值示例,逐步展示了LSTM在单个时间序列上的计算过程。最近由于人们意识到自注意力无法很好地扩展到非常长的序列(如数十万个令牌),因此重新对递归模型产生了兴趣,如Mamba模型。总的来说,重点介绍了LSTM网络的基本原理、工作机制及其与Transformer模型的区别,为深入理解LSTM提供了解析性的指导。
LSTM的详细分步骤工作原理:
a。 初始化隐藏状态和记忆细胞
b。 线性变换输入和前一隐藏状态获取特征值
c。 非线性变换得到门值和候选记忆值
d。 更新记忆细胞
e。 计算候选输出
f。 更新隐藏状态,输出当前时间步输出
g。 重复上述步骤处理后续时间步
AI by Hand的案例应用
持续更新中……