推荐几个出论文的好方向

如果你准备发AI方向的论文,或准备从事科研工作或已在企业中担任AI算法岗的工作。那么我真诚的向大家推荐,贪心学院高阶机器学习研修班》,目前全网上应该找不到类似体系化的课程。课程精选了四大主题进行深入的剖析讲解,四个模块分别为凸优化、图神经网络、强化学习、贝叶斯深度学习。

适合什么样的人来参加呐?

  • 从事AI行业多年,但技术上感觉不够深入,遇到了瓶颈; 

  • 停留在使用模型/工具上,很难基于业务场景来提出新的模型; 

  • 对于机器学习背后的优化理论、前沿的技术不够深入;

  • 计划从事尖端的科研、研究工作、申请AI领域研究生、博士生; 

  • 打算进入顶尖的AI公司如Google,Facebook,Amazon, 阿里等;

  • 读ICML,IJCAI等会议文章比较吃力,似懂非懂,无法把每个细节理解透。

如果对课程感兴趣,请联系

添加课程顾问小姐姐微信

报名、课程咨询

????????????

01 课程大纲

课程内容上做了大幅度的更新,一方面新增了对前沿主题的讲解如图神经网络(GCN,GAT等),对核心部分(如凸优化、强化学习)加大了对理论层面上的深度。除此之外,也会包含科研方法论、元学习、解释性、Fair learning等系列主题。课程采用全程直播授课模式。

模块一:凸优化

第一章:凸优化介绍

| 从优化角度理解机器学习

| 凸优化的重要性

| 常见的凸优化问题

| 线性规划以及Simplex Method

| Stochastic LP

| 运输问题讲解

| 投放优化问题讲解

 

第二章:判定凸函数

| 凸集的判断

| First-order Convexity

| Second-order convexity

| Operations preserve convexity

| 二次规划问题(QP)

| 最小二乘问题

| 股票投资组合优化

 

第三章:常见的凸优化问题

| 常见的凸优化问题类别

| 半定规划问题(semi-definite programming)

| 几何规划问题(geometric programming)

| 非凸函数的优化

| 松弛化(relaxazation)

| 整数规划(integer programming)

| 打车中的匹配问题

 

第四章:优化与量化投资

| 量化投资概述

| 如何阅读K线图

| 基于规则的量化策略

| 基于多因子模型的量化策略

| 基于机器学习模型的量化策略

| 基于LP, QP优化的量化策略

| Efficient Frontier, Sharp Ratio

| 量化平台:量化策略编写实战作业讲解SDP

 

第五周:对偶(Duality)

| 拉格朗日对偶函数

| 对偶的几何意义

| Weak and Strong Duality

| KKT条件

| LP, QP, SDP的对偶问题

| 对偶的其他应用

| 典机器学习模型的对偶推导及实现

 

 第六章:一阶与二阶优化技术

| Gradient Descent

| Subgradient Method

| Proximal Gradient Descent

| Projected Gradient Descent

| Stochastic Gradient Descent与收敛

| Newton's Method

| Quasi-Newton Method

| L-BFGS

 

第七章:优化技术进阶

| Mirror Ascent

| 分布式SGD

| Interior Point Method

| ADMM

| Sparsity与优化

| Combinatorial优化

模块二 图神经网络

第一章:数学部分(1)

| 空间向量和图论

| Inner Product, Hilbert Space

| 傅里叶变化

| Eigenfunction, Eigenvalue

| CNN的卷积和池化

| 介绍cnn的卷积层

| 如何卷积,信息如何传递

| 池化层的作用和基本设计

 

第二章:数学部分(2)

| Subgraph

| Network Motif

| Network Community Detection

| 拉普拉斯算子

| 拉普拉斯矩阵

| SVD

| QR分解

| 基本向量机分解

| block分解

| 拉普拉斯算子和矩阵的数学意义

第三章:图卷积

| 卷积的几何意义

| 图卷积

| ChebNet

| GCN

| Graph Pooling

| MCMC介绍

| Importance Sampling

| Rejection Sampling

第四章:边嵌入的图卷积

| Spatial Convolution

| Mixture Model Network

| Attention机制

| Graph attention network

| Edge Convolution

| 近似优化问题

| 减少计算量的介绍

第五章:图卷积的应用

| NRI

| Relative GCN

| Knowledge GCN

| ST-GCN

| Graphsage的设计

| Graphsage的应用

第六章:GNN的相关模型

| GNN

| Deepwalk

| Node2vec

| Struc2vec

| HyperGCN

| HGCN的设计和应用

模块三 强化学习

第一章:强化学习基础(1)

| Markov Decision Process

| Bellman Equation

| Dynamic Programming

| Model-free Prediction

| Monte Carlo Learning

| TD Learning

 

第二章:强化学习基础(2)

| Model free Control

| On-Policy Monte Carlo Control

| On-Policy TD Learning

| SARSA, SARSA Lambda

| Off-policy

| Importance Sampling, Q-Learning

 

第三章:强化学习基础(3)

| Policy Gradient

| Deep Reinforcement Learning

| Actor Critic

| Advanced Reinforcement Learning

 

第四章:探索、实施、推荐系统

| Multi Armed  Bandits

| Explore and Exploit

| Thompson Sampling

| Epsilon Greegy

| Upper Confidence Bound

| Reinforcement Learning and Recommendation system

| Epsilon greedy

| UCB  

第五章:多智能体的强化学习与稀疏Reward设计

| Multi agent Reinforcement Learning

| Sparse reward Design

| Inverse RL

| Master the game of Go without human knowledge

| AlphaGo  围棋强化学习论文解读

第六章:强化学习在NLP、量化、游戏中的应用

| Reinforcement Learning Application

| Reinforcement Learning with NLP

| Reinforcment Learning with quatitive trading

| Reinforcement Learning with Game.

| SeqGan 代码讲解

模块四 贝叶斯深度学习

第一章:贝叶斯机器学习介绍

| 贝叶斯定理

| MLE,MAP以及贝叶斯估计

| 集成模型与贝叶斯方法比较

| 贝叶斯推理中的困难

| 贝叶斯近似算法介绍

| 贝叶斯线性回归

| 案例:基于贝叶斯线性回归的股价预测

| 线性回归于岭回归

| 贝叶斯线性回归模型

| Probabilistic Programming

| Edwin的使用以及实战

 

第二章:贝叶斯NB与LDA

| 从朴素贝叶斯到贝叶斯朴素贝叶斯

| 贝叶斯朴素贝叶斯模型的生成过程

| 概率图表示方法

| 主题模型的应用

| 主题模型的生成过程

| 基于LDA的文本分析

| LDA的应用场景

| LDA应用在文本分析中

| LDA代码剖析

 

第三章:MCMC采样技术

| MCMC采样技术介绍

| 吉布斯采样

| Bayesian NB的求解

| LDA与吉布斯采样

| 各类采样技术

| Importance Sampling

| Rejection Sampling

 

第四章:变分法技术

| KL散度

| ELBo的构造

| 变分法目标函数

| 坐标下降法

| 求解LDA的参数

| 基于贝叶斯深度学习的推荐系统搭建

| SVI的介绍

| 贝叶斯深度学习

| 基于SVI的求解

 

第五章:贝叶斯深度学习

| 贝叶斯深度学习的应用

| 贝叶斯与VAE

| Reparameterization Trick

| 深度生成模型

| 基于VAE的文本生成

| 贝叶斯模型与不确定性

| MC Dropout介绍

| MC Dropout证明

 

第六章:贝叶斯深度学习与自然语言处理

| 贝叶斯序列模型

| 词性标注于实体识别

| 基于贝叶斯图神经网络的文本分析

| 基于贝叶斯神经网络的命名实体识别

| Adversial Learning介绍

| Adversial Attack

| 基于GNN的Adversial Learning

 

第七章:高斯过程与贝叶斯优化

| 高斯分布

| 高斯过程

| 超参数的学习

| AutoML技术

| 贝叶斯优化及应用

02 部分案例和项目

学员可以选择每个模块完成我们提供的固定项目(以个人为单位),或者以小组为单位完成一个开放式项目(capstone),当然你也可以提出你自己的项目。从项目的立项、中期验收到最终答辩,在这个过程中我们的导师团队会给你建议、并辅助你完成课题, 该课题最终很有可能成为你的创业项目或科研论文!

优化与量化投资:量化投资作为金融领域一大分支,今年来受到了很大的关注。在这个项目中,我们将使用在课程中已学过的优化技术来搭建买卖策 略,并在平台上做回测,最终得到策略的效果。

这个项目的主要目的有以下几种:

1. 了解并掌握量化投资领域,虽然跟很多人的工作关系不大,但毕竟是一个新兴领域,而且跟 AI 技术的结合比较紧密,强烈建议借此机会学习。

2. 掌握并实战优化技术,通过编写真正的策略会真正明白优化技术如何应用在工业界环境中。

3. 基于给定的优化方法,自己试着去改进并创造新的优化方法,让回测效果更好。

涉及到的知识点:量化投资,凸优化,二次规划

基于GCN的链路预测:社交数据或者推荐系统数据中,拥有一群用户,有些用户是朋友关系,而有些朋友可能是潜在朋友关系。这个项目,需要精准地预测用户之间的关系,是否会形成朋友关系,做到用户之间的准确推荐。首先,需要将问题进行数学建模,构建图矩阵和特征矩阵,然后再将构建的矩阵,放入GCN中,进行训练,提升结果。在这个项目里,图矩阵是需要自己创建,其次,GCN模型,可以进行修改,变成GCN+attention, 或Edge- GCN, 或 GCN-smoothing. 最后衡量预测效果。

涉及到的知识点:Graph Theory、GCN和Attention、Weighted Graph、Smoothing label

基于HFO 场景的强化学习模型及基于Flappy Bird 场景的深度强化学习:本项目 (coursework) 旨在实践并设计强化学习算法来探索,解决解决强化学习问题。其中包括模拟HFO ( Half Field Offence)及 Flappy Bird。通过此项目,期望同学们能充分理解,并可掌握,应用 (但不限于) :状态State, 动作Action, MDP( 马尔可夫决策过程)。

State value function ,State Action value function 如何进行估计,迭代及预测。深度神经网络强化学习对Value Approximation进行评估, 并进行Policy优化。Exploration 和 Exploitation 的平衡优化也将会在本项目的最后进行探索。

涉及到的知识点:MDP建模, Q Learning, Monte Carlo Control , Value iteration, Deep Q Learning


基于修改版LDA的无监督情感分析模型:本项目的目的是如何基于LDA来自动抽取文本中的情感,这个项目涉及到对于LDA模型的改造以及对于新模型的推导,具有一定的挑战。在本项目中,我们会一步步引导学员去设计模型,并对模型做出吉布斯采样的全部推导过程以及实现环节。通过此项目,学员会亲身体会整个贝叶斯模型的设计和训练过程。

涉及到的知识点:主题模型,吉布斯采样,Collapsed吉布斯采样,无监督情感分析

如果对课程感兴趣,请联系

添加课程顾问小姐姐微信

报名、课程咨询

????????????

03 授课导师

李文哲:贪心科技创始人兼CEO,人工智能和知识图谱领域专家,曾任金融科技独角兽公司的首席科学家、美国亚马逊的高级工程师,美国南加州大学博士,在荷兰访问期间,师从AI顶级学者Max Welling教授。。并在AAAI、KDD、AISTATS等顶会上发表过15篇以上论文,并荣获IAAI,IPDPS的最佳论文奖。

 

杨栋:香港城市大学博士, UC Merced博士后,主要从事于机器学习,图卷积,图嵌入的研究。先后在ECCV, Trans on Cybernetics, Trans on NSE, INDIN等国际顶会及期刊上发表过数篇论文。

04直播授课,现场推导演示

区别于劣质的PPT讲解,导师全程现场推导,让你在学习中有清晰的思路,深刻的理解算法模型背后推导的每个细节。更重要的是可以清晰地看到各种模型之间的关系!帮助你打通六脉!

▲源自:LDA模型讲解


▲源自:Convex Optimization 讲解

▲源自:Convergence Analysis 讲解

05 完整的项目实践文档

以量化投资的项目为例,使用优化技术来解决。大概1个月的时间。只要按照文档里的步骤自己做就可以,但还是挺有挑战的,比如如何设计策略等等。最后的结果要求在真实的量化平台上去验证,并记录Sharp Ratio等指标,整体来讲项目很有意思,毕竟每个人都有AI炒股的梦吧!

图1:详细的项目文档

图2:详细的项目文档

06 科学的课程安排

采用直播的授课方式,每周3-4次直播教学,包含核心理论课、实战课、复习巩固课以及论文讲解课。教学模式上也参考了美国顶级院校的教学体系。以下为其中一周的课程安排,供参考。 

 

07 入学标准

1、 理工科专业相关本科生、硕士生、博士生。

2、目前从事AI工作。

3、具备良好的Python编程能力。

4、具备一定机器学习、深度学习基础,零基础学员不太适合。

08 报名须知

1、本课程为收费教学。

2、本期招收学员名额有限

3、品质保障!学习不满意,可在开课后7天内,无条件全额退款。

4、学习本课程需要具备一定的机器学习基础。

●●●

如果对课程感兴趣,请联系

添加课程顾问小姐姐微信

报名、课程咨询

????????????

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/478381.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

LeetCode 414. 第三大的数

1. 题目 给定一个非空数组,返回此数组中第三大的数。如果不存在,则返回数组中最大的数。要求算法时间复杂度必须是O(n)。 示例 1: 输入: [3, 2, 1] 输出: 1 解释: 第三大的数是 1.示例 2: 输入: [1, 2] 输出: 2 解释: 第三大的数不存在, 所以返回最大的…

论文浅尝 - ICLR2021 | BERTology 遇上生物学:在蛋白质语言模型中解释注意力

来源:ICLR2021链接:https://arxiv.org/abs/2006.15222v3一.动机Transformer架构已经被证明可以学习有用的蛋白质分类和生成任务表示。然而,在可解释性方面存在挑战。二.亮点本文通过attention分析蛋白质Transformer模型,通过atten…

Vuex框架原理与源码分析

Vuex是一个专为Vue服务,用于管理页面数据状态、提供统一数据操作的生态系统。它集中于MVC模式中的Model层,规定所有的数据操作必须通过 action - mutation - state change 的流程来进行,再结合Vue的数据视图双向绑定特性来实现页面的展示更新…

在错误的数据上,刷到 SOTA 又有什么意义?

文 | Severus编 | 小轶小编注:前段时间,小屋介绍了吴恩达老师近期发起的以数据为中心的 AI 竞赛(参见《吴恩达发起新型竞赛范式!模型固定,只调数据?!》)。吴恩达老师认为&#xff1a…

论文浅尝 | BoxE:一种基于Box的知识图谱表示学习模型

笔记整理 | 耿玉霞,浙江大学直博生。研究方向:知识图谱,零样本学习等。论文链接: https://arxiv.org/pdf/2007.06267.pdf本文是发表在NeurIPS 2020上的一篇基于Box的知识图谱表示学习模型的文章。在以往知识图谱表示学习(KG Embe…

LeetCode 127. 单词接龙(图的BFS/双向BFS)

文章目录1. 题目2. 图的BFS解题2.1 单向BFS2.2 双向BFS !厉害了1. 题目 给定两个单词(beginWord 和 endWord)和一个字典,找到从 beginWord 到 endWord 的最短转换序列的长度。 转换需遵循如下规则: 每次转换只能改变…

Leaf——美团点评分布式ID生成系统

在复杂分布式系统中,往往需要对大量的数据和消息进行唯一标识。如在美团点评的金融、支付、餐饮、酒店、猫眼电影等产品的系统中,数据日渐增长,对数据分库分表后需要有一个唯一ID来标识一条数据或消息,数据库的自增ID显然不能满足…

@开发者,第二届马栏山杯国际音视频算法大赛高分攻略请查收,心动大奖等你来战!...

一秒让墙上的广告消失,保留完整墙面;户外大屏幕显示LOGO被擦除后,背景毫不违和……欢迎来到魔法世界——停!这其实并不是什么魔法,而是由弗吉尼亚理工大学提出的基于流的视频补全算法FGVC的一项应用。作为视频的“橡皮…

论文小综 | Attention in Graph Neural Networks

作者 | 方尹、杨海宏,浙江大学在读博士,主要研究方向为图表示学习近年来,图卷积神经网络(Graph Convolutional Network, GCN)利用图卷积从图结构数据中提取特征,成功应用于节点分类、图分类、链接预测等任务,用途广泛。…

LeetCode 126. 单词接龙 II(图的BFS)

1. 题目 给定两个单词(beginWord 和 endWord)和一个字典 wordList,找出所有从 beginWord 到 endWord 的最短转换序列。 转换需遵循如下规则: 每次转换只能改变一个字母。转换过程中的中间单词必须是字典中的单词。 说明: 如果…

外卖订单量预测异常报警模型实践

外卖业务的快速发展对系统稳定性提出了更高的要求,每一次订单量大盘的异常波动,都需要做出及时的应对,以保证系统的整体稳定性。如何做出较为准确的波动预警,显得尤为重要。 从时间上看,外卖订单量时间序列有两个明显的…

聊一聊“超大模型”

文 | 金雪锋源 | 知乎最近经常被问,你看“万亿的模型都出来了,你们训练的千亿模型是不是落伍了?”我想说:“虽然都叫超大模型,但是类型是不一样的,虽说每一类模型训出来都不容易,不过澄清一下概…

技术动态 | 不确定性知识图谱的表示和推理

本文转载自漆桂林知乎。作者 | 张嘉韬、漆桂林、吴天星文章链接 | https://zhuanlan.zhihu.com/p/369068016

LeetCode 665. 非递减数列(双指针)

1. 题目 给定一个长度为 n 的整数数组&#xff0c;你的任务是判断在最多改变 1 个元素的情况下&#xff0c;该数组能否变成一个非递减数列。 我们是这样定义一个非递减数列的&#xff1a; 对于数组中所有的 i (1 < i < n)&#xff0c;满足 array[i] < array[i 1]。…

数据还是模型?人类知识在深度学习里还有用武之地吗?

文 | Severus编 | 小戏近些年来&#xff0c;随着数据量越来越多&#xff0c;算力价格越来越便宜&#xff0c;根植于数据算力的深度学习茁壮成长。在这种背景下&#xff0c;作为一种强有力的表示学习方法的深度学习让人们惊讶的发现&#xff0c;只要投喂足够多的数据&#xff0c…

LeetCode 130. 被围绕的区域(图的BFS/DFS)

文章目录1. 题目2. 解题2.1 BFS2.2 DFS1. 题目 给定一个二维的矩阵&#xff0c;包含 ‘X’ 和 ‘O’&#xff08;字母 O&#xff09;。 找到所有被 ‘X’ 围绕的区域&#xff0c;并将这些区域里所有的 ‘O’ 用 ‘X’ 填充。 示例: X X X X X O O X X X O X X O X X 运行你的…

论文浅尝 - ECIR2021 | 两种实体对齐方法的严格评估

笔记整理 | 谭亦鸣&#xff0c;东南大学博士生来源: ECIR 2021在这篇工作中&#xff0c;作者对两种SOTA实体对齐方法做了广泛的研究&#xff1a;首先仔细分析了现有benchmark的过程&#xff0c;并论证了其中存在一些缺陷&#xff0c;使得原始方法给出的实验结果之间可能存在不可…

Android App包瘦身优化实践

随着业务的快速迭代增长&#xff0c;美团App里不断引入新的业务逻辑代码、图片资源和第三方SDK&#xff0c;直接导致APK体积不断增长。包体积增长带来的问题越来越多&#xff0c;如CDN流量费用增加、用户安装成功率降低&#xff0c;甚至可能会影响用户的留存率。APK的瘦身已经是…

NLP界新SOTA!吸纳5000万级知识图谱,一举刷爆54个中文任务!

大家还记得2019年底首次将GLUE榜单分数刷过90大关的百度ERNIE模型吗&#xff1f;在随后一年多的时间里&#xff0c;又陆续出现了GPT-3、Switch Transformer等一众靠模型体量取胜的千亿乃至万亿参数规模的超大预训练模型&#xff0c;似乎新训一个预训练模型没有个千亿参数都不好…

LeetCode 543. 二叉树的直径(DFS)

1. 题目 给定一棵二叉树&#xff0c;你需要计算它的直径长度。一棵二叉树的直径长度是任意两个结点路径长度中的最大值。这条路径可能穿过根结点。 示例 : 给定二叉树1/ \2 3/ \ 4 5 返回 3, 它的长度是路径 [4,2,1,3] 或者 [5,2,1,3]。注意&#xff1a;两结点之…