时至今日,距离小夕发布的第一篇正式文章已经过去整三个月啦。今天又回头看了一下自己写的第一篇文章,不禁有点感慨“文风”变了这么多,甚至有点受不了第一篇文章中的萌气了\(//∇//)\然后文章还写的不怎么样。。。
虽然第一篇文章写的好差,还没有任何排版和用户体验可言,小夕自己都看不下去了,但是还是阶段性的贴个链接出来以作纪念啦~
引爆人工智能黑夜的是!统!计!
其实小夕是真的没有想到可以坚持的写到现在的,本来以为,开学后导师肯定又那么烦的把事情往我身上丢,还不给加工资(万一哪天不小心被导师关注了,老师看到这里不要打我\(//∇//)\,逃~),觉得可能写写就没人看了,也没得写了,就挂掉惹。然而没有想到,今天,写文章竟然几乎成了我的一个习惯。
其实现在小夕都觉得会有人喜欢看自己的文章是很不可思议的事情,小夕毕竟不是行业大牛,有时还会在文章中犯错误,但是总有你们一直默默的容忍小夕,支持小夕,好不可思议。好像说谢谢有点俗气,但是还是好谢谢你们啦。
然后,小夕就不啰嗦了,否则不小心煽情了又停不下来了~下面进入正文。
订阅号建立之初,文章就是想起什么写什么,内容很杂,很碎片。后来想了想,小夕致力于让尽可能多的人看懂每一篇人工智能,尤其是机器学习相关的干货文章,但是如果一直碎片的话,好像很难又通俗又系统的讲解整个机器学习相关体系,必将导致知识特别零散不成体系,这样就跟大部分中国人写的书以及速成培训班没有本质区别了。所以在公众号主页下方的“旧的故事”标签的“萌味干货”里,小夕将文章分成了三类:入门指导、科普干货和技术干货。
入门指导就不必说啦。
科普干货就是以科普为目的,所以会继续保持碎片化、广覆盖面的特点,还会以一些比较欺骗性的文风来做科普,比如《如何优雅的追到女神夕小瑶》(这一篇是科普搜索算法)、《如果你跟夕小瑶恋爱了(上)》《(下)》(这两篇是科普隐马尔可夫模型)、《一位老师,一位领导,一个让全体学生考上目标学校的故事》(这一篇是科普机器学习的AdaBoost模型)。小夕接下来会继续保持这样的文风来做科普~
技术干货是小夕的写作计划的重点,订阅号成立之初,技术干货的知识点比较散。但是从不久前,小夕决定在这里以“为读者建立大一统的机器学习体系”为核心目标,来努力写出既容易懂,又有一定深度,又不孤立的文章。当然,这是小夕努力实现的目标啦,小夕在实现的过程中肯定有很多做的不好的地方,就要靠你们帮小夕改进啦(嘤嘤嘤,羡慕背后有团队的公众号作者)。
下面是小夕在技术干货的写作计划(已完成冰山一角):
ps:同一个模型可能由于不同视角或者不同应用场景而分成好几篇文章讲。
朴素贝叶斯←→逻辑回归→神经网络→深度学习→概率图模型
前馈神经网络→循环神经网络(RNN)→长短时记忆网络(LSTM)
前馈神经网络→神经张量网络(NTN)
前馈神经网络→递归神经网络(Recursive NN)→矩阵-张量递归神经网络(MV-RNN)→递归神经张量网络(RNTN)
前馈神经网络→卷积神经网络(CNN)→卷积长短时记忆网络(convLSTM,一种时空模型)
前馈神经网络→自编码器(Auto-Encoder)
逻辑回归→受限玻尔兹曼机(RBM)→玻尔兹曼机→概率图模型
概率图模型→有向图模型→贝叶斯网络
概率图模型→无向图模型→马尔科夫随机场→条件随机场、玻尔兹曼机等
朴素贝叶斯←→隐马尔可夫模型(HMM)
逻辑回归←→条件随机场(CRF)
隐马尔可夫模型(HMM)←→条件随机场(CRF)
若干机器学习模型→一般化机器学习
一般化机器学习→损失函数
一般化机器学习→最优化算法
一般化机器学习→支持向量机(SVM)
小夕版线性代数→核函数、PCA等
上面的是暂时想好怎么写的~还有一些知识点小夕也没有来得仔细研究(比如强化学习、监督学习中的lazy学习等),这些可能一时半会来不及考虑去写。当然实际中可能发现更好的讲解路线,就会进行动态调整,但是基本框架是这样啦。好期待把这些所有文章写完之后画出一个大大的网络~
然后,为了大家阅读和梳理方便,小夕会将上面的框架放在订阅号主页下方的标签“知识网络”里(好像要过几个小时才能同步到所有人的设备),然后以后大家就可以方便的找到这个知识网络,并且进入相应文章啦~(当然,懒懒的小夕经常更新的不及时,喵喵喵\(//∇//)\)
最后,可怜的小夕已经没有精力推广自己的订阅号啦,但是幸运的小夕有你们呀o(≧v≦)o~欢迎将小夕的小订阅号推荐给需要的人哦~