关于NLP相关技术全部在这里:预训练模型、图神经网络、模型压缩、知识图谱、信息抽取、序列模型、深度学习、语法分析、文本处理...

神器推荐

NLP近几年非常火,且发展特别快。像BERT、GPT-3、图神经网络、知识图谱等技术应运而生。

我们正处在信息爆炸的时代、面对每天铺天盖地的网络资源和论文、很多时候们面临的问题并不是缺资源,而是找准资源并高效学习。但很多时候你会发现,花费大量的时间在零零散散的内容上,但最后发现效率极低,浪费了很多宝贵的时间。为了迎合大家学习的需求,我们这次重磅推出了《自然语言处理终身升级版》。

课程覆盖了从经典的机器学习、文本处理技术、序列模型、深度学习、预训练模型、知识图谱、图神经网络所有必要的技术。

重点:课程会不断更新,比如一篇新的有趣的论文出现在arxiv,我们会在1个月之内提供技术的讲解和实战。我相信这个课程将是你在NLP领域中的终身伴侣。

01 课程大纲

第一部分:机器学习基础篇

第一章:自然语言处理概述

  • 自然语言处理的现状与前景

  • 自然语言处理应用

  • 自然语言处理经典任务

第二章:数据结构与算法基础

  • 时间复杂度、空间复杂度

  • 动态规划

  • 贪心算法

  • 各种排序算法

第三章:分类与逻辑回归

  • 逻辑回归

  • 最大似然估计

  • 优化与梯度下降法

  • 随机梯度下降法

第四章:模型泛化与调参

  • 理解过拟合、防止过拟合

  • L1与L2正则

  • 交叉验证

  • 正则与MAP估计

第二部分:文本处理篇

第五章:文本预处理与表示

  • 各类分词算法

  • 词的标准化

  • 拼写纠错、停用词

  • 独热编码表示

  • tf-idf与相似度

  • 分布式表示与词向量

  • 词向量可视化与评估

第六章:词向量技术

  • 独热编码的优缺点

  • 分布式表示的优点

  • 静态词向量与动态词向量

  • SkipGram与CBOW

  • SkipGram详解

  • Negative  Sampling

第七章:语言模型

  • 语言模型的作用

  • 马尔科夫假设

  • UniGram, BiGram, NGram模型

  • 语言模型的评估

  • 语言模型的平滑技术

第三部分:序列模型篇

第八章:隐马尔科夫模型

  • HMM的应用

  • HMM的Inference

  • 维特比算法

  • 前向、后向算法

  • HMM的参数估计详解

第九章:线性条件随机场

  • 有向图与无向图

  • 生成模型与判别模型

  • 从HMM与MEMM

  • MEMM中的标签偏置

  • Log-Linear模型介绍

  • 从Log-Linear到LinearCRF

  • LinearCRF的参数估计

 

第四部分:深度学习与预训练篇

第十章:深度学习基础

  • 理解神经网络

  • 各种常见的激活函数

  • 反向传播算法

  • 浅层模型与深度模型对比

  • 深度学习中的层次表示

  • 深度学习中的过拟合

第十一章:RNN与LSTM

  • 从HMM到RNN模型

  • RNN中的梯度问题

  • 梯度消失与LSTM

  • LSTM到GRU

  • 双向LSTM

  • 双向深度LSTM

第十二章:Seq2Seq模型与注意力机制

  • Seq2Seq模型

  • Greedy Decoding

  • Beam Search

  • 长依赖所存在的问题

  • 注意力机制的实现

第十三章:动态词向量与ELMo技术

  • 基于上下文的词向量技术

  • 图像识别中的层次表示

  • 文本领域中的层次表示

  • ELMo模型

  • ELMo的预训练与测试

  • ELMo的优缺点

第十四章:自注意力机制与Transformer

  • LSTM模型的缺点

  • Transformer概述

  • 理解自注意力机制

  • 位置信息的编码

  • 理解Encoder和Decoder区别

  • 理解Transformer的训练与预测

  • Transformer的缺点

第十五章:BERT与ALBERT

  • 自编码介绍

  • Transformer Encoder

  • Masked语言模型

  • BERT模型

  • BERT的不同训练方式

  • ALBERT 

第十六章:BERT的其他变种

  • RoBERTa模型

  • SpanBERT模型

  • FinBERT模型

  • 引入先验知识

  • K-BERT

  • KG-BERT

第十七章:GPT与XLNet

  • Transformer Encoder回顾

  • GPT-1, GPT-2,  GPT-3

  • ELMo的缺点

  • 语言模型下同时考虑上下文

  • Permutation LM

  • 双流自注意力机制

第五部分:信息抽取与知识图谱篇

 

第十八章:命名识别与实体消歧

  • 信息抽取的应用和关键技术

  • 命名实体识别

  • NER识别常用技术

  • 实体统一技术

  • 实体消歧技术

  • 指代消解

第十九章:关系抽取

  • 关系抽取的应用

  • 基于规则的方法

  • 基于监督学习的方法

  • Bootstrap方法

  • Distant Supervision方法

第二十章:句法分析

  • 句法分析的应用

  • CFG介绍

  • 从CFG到PCFG

  • 评估语法树

  • 寻找最好的语法树

  • CKY算法

第二十一章:依存文法分析

  • 从语法分析到依存文法分析

  • 依存文法分析的应用

  • 基于图算法的依存文法分析

  • 基于Transition-based的依存文法分析

  • 依存文法的应用案例

第二十二章:知识图谱

  • 知识图谱的重要性

  • 知识图谱中的实体与关系

  • 非结构化数据与构造知识图谱

  • 知识图谱设计

  • 图算法的应用

第六部分:模型压缩与图神经网络篇

第二十三章:模型的压缩

  • 模型压缩重要性

  • 常见的模型压缩总览

  • 基于矩阵分解的压缩技术

  • 基于蒸馏的压缩技术

  • 基于贝叶斯模型的压缩技术

  • 模型的量化

第二十四章:基于图的学习

  • 图的表示

  • 图与知识图谱

  • 关于图的常见算法

  • Deepwalk和Node2vec

  • TransE图嵌入算法

  • DSNE图嵌入算法

第二十五章:图神经网络

  • 卷积神经网络回顾

  • 在图中设计卷积操作

  • 图中的信息传递

  • 图卷积神经网络

  • 图卷积神经网络的经典应用

第二十六章:GraphSage与GAT

  • 从GCN到GraphSAge

  • 注意力机制回归

  • GAT模型详解

  • GAT与GCN比较

  • 对于异构数据的处理

第二十七章:图神经网络的其他应用

  • Node Classification

  • Graph Classification

  • Link Prediction

  • 社区挖掘

  • 推荐系统

  • 图神经网络的未来发展

课程其他的细节可以联系课程顾问来获取

添加课程顾问微信

报名、课程咨询

????????????

02 课程中的部分案例

1. 实现一个拼写纠错器

        2. 从零实现Word2Vec词向量
        3. 利用SkipGram做推荐
        4. 从零实现HMM模型
        5. 基于Linear-CRF的词性分类器实现
        6. 从零实现深度学习反向传播算法
        7. 实现AI程序帮助写程序
        8. 实现AI程序帮助写文章

9. 基于Transformer的机器翻译

       10. 基于KG-BERT的知识图谱学习
       11. 基于知识图谱的风控系统
       12. 基于知识图谱的个性化教学
       13. 利用蒸馏算法压缩Transformer
       14. 利用GCN实现社交推荐
       15. 基于GAT的虚假新闻检测
      (剩下20+个案例被折叠,完整请咨询...)

03 课程中的部分项目作业

        

1. 豆瓣电影评分预测

    涉及到的知识点:

  • 中文分词技术

  • 独热编码、tf-idf

  • 分布式表示与Word2Vec

  • BERT向量、句子向量

2. 智能客服问答系统

    涉及到的知识点

  • 问答系统搭建流程

  • 文本的向量化表示

  • FastText

  • 倒排表

  • 问答系统中的召回、排序

3. 基于Linear-CRF的医疗实体识别

    涉及到的知识点

  • 命名实体识别

  • 特征工程

  • 评估标准

  • 过拟合

4. 基于闲聊的对话系统搭建

    涉及到的知识点

  • 常见的对话系统技术

  • 闲聊型对话系统框架

  • 数据的处理技术

  • BERT的使用

  • Transformer的使用

5. 搭建基于医疗知识图谱的问答系统

    涉及到的知识点

  • 医疗专业词汇的使用

  • 获取问句的意图

  • 问句的解释、提取关键实体

  • 转化为查询语句

6. 搭建基于医疗知识图谱的问答系统

    涉及到的知识点

  • 文本摘要生成介绍

  • 关键词提取技术

  • 图神经网络的摘要生成

  • 基于生成式的摘要提取技术

  • 文本摘要质量的评估

04 课程中带读的部分论文

主题
论文名称
机器学习
XGBoost: A Scalable Tree Boosting System
机器学习
Regularization and Variable Selection via the Elastic Net
词向量Evaluation methods for unsupervised word embeddings
词向量Evaluation methods for unsupervised word embeddings
词向量GloVe: Global Vectors for Word Representation
词向量Deep Contexualized Word Representations
词向量
Attention is All You Need
词向量
BERT: Pretraining of Deep Bidirectional Transformers for Language Understanding
词向量XLNet: Generalized Autoregressive Pretraining for Language Understanding
词向量
KG-BERT: BERT for Knowledge Graph Completion
词向量
Language Models are Few-shot Learners
图学习Semi-supervised Classification with Graph Convolutional Networks
图学习Graph Attention Networks
图学习GraphSAGE: Inductive Representation Learning on Large Graphs
图学习Node2Vec: Scalable Feature Learning for Networks
被折叠
其他数十篇文章......

05 课程适合谁?

大学生

  • 理工科相关专业的本科/硕士/博士生,毕业后想从事NLP工作的人

  • 希望能够深入AI领域,为科研或者出国做准备

  • 希望系统性学习NLP领域的知识

在职人士

  • 目前从事IT相关的工作,今后想做跟NLP相关的项目

  • 目前从事AI相关的工作,希望与时俱进,加深对技术的理解

  • 希望能够及时掌握前沿技术

06 报名须知

1、本课程为收费教学。

2、本期仅招收剩余名额有限

3、品质保障!正式开课后7天内,无条件全额退款。

4、学习本课程需要具备一定的机器学习基础。

●●●

课程其他的细节可以联系课程顾问来获取

添加课程顾问微信

报名、课程咨询

????????????

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/478770.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

LeetCode 77. 组合(回溯)

1. 题目 给定两个整数 n 和 k,返回 1 … n 中所有可能的 k 个数的组合。 示例:输入: n 4, k 2 输出: [[2,4],[3,4],[2,3],[1,2],[1,3],[1,4], ]来源:力扣(LeetCode) 链接:https://leetcode-cn.com/problems/combin…

论文浅尝 - AAAI2020 | 从异质外部知识库中进行基于图的推理实现常识知识问答...

会议:AAAI2020论文链接:https://arxiv.org/pdf/1909.05311.pdf摘要常识问答旨在回答需要背景知识的问题,而背景知识并未在问题中明确表达。关键的挑战是如何从外部知识中获取证据并根据证据做出预测。最近的研究要么从昂贵的人类注释中生成证…

插件化、热补丁中绕不开的Proguard的坑

文章主体部分已经发表于《程序员》杂志2018年2月期,内容略有改动。 ProGuard简介 ProGuard是2002年由比利时程序员Eric Lafortune发布的一款优秀的开源代码优化、混淆工具,适用于Java和Android应用,目标是让程序更小,运行更快&…

互联网高端社畜行话大全(表情包)

作者 | 洋气的圆圆君前几天,字节跳动CEO张一鸣发表的演讲刷屏朋友圈,其中不忘开讽互联网黑话。燃鹅,作为一只卑微的互联网社畜,哪天被父母问起来我们行业常说的“抓手”、“赋能”都是啥,答不好的话那是要被challenge自…

论文浅尝 | DeCLUTR: 无监督文本表示的深度对比学习

Giorgi, J. M., O. Nitski, G. D. Bader and B. Wang (2020). "DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations." arXiv preprint arXiv:2006.03659.原文链接:https://arxiv.org/pdf/2006.03659GitHub项目地址&#xff1a…

MoCoV3:何恺明团队新作!解决Transformer自监督训练不稳定问题!

文 | happy源 | 极市平台论文链接: https://arxiv.org/abs/2104.02057本文是FAIR的恺明团队针对自监督学习Transformer的一篇实证研究。针对Transformer在自监督学习框架中存在的训练不稳定问题,提出了一种简单而有效的技巧:Random Patch Projection&…

LeetCode 496. 下一个更大元素 I(哈希)

1. 题目 给定两个没有重复元素的数组 nums1 和 nums2 ,其中nums1 是 nums2 的子集。找到 nums1 中每个元素在 nums2 中的下一个比其大的值。 nums1 中数字 x 的下一个更大元素是指 x 在 nums2 中对应位置的右边的第一个比 x 大的元素。如果不存在,对应…

论文浅尝 - AAAI2020 | 多模态基准指导的多模态自动文摘

论文笔记整理:刘雅,天津大学硕士。链接:https://aaai.org/ojs/index.php/AAAI/article/view/6525动机近年来,随着计算机视觉以及自然语言处理技术的发展,多模态自动文摘技术逐渐成为学术界和工业界研究的热点。当前的多…

改进YOLOv8注意力系列三:结合CrissCrossAttention、ECAAttention、EMAU期望最大化注意力

改进YOLOv8注意力系列三:结合CrissCrossAttention、ECAAttention、EMAU期望最大化注意力 代码CrissCrossAttention注意力ECAAttention通道注意力EMAU期望最大化注意力加入方法各种yaml加入结构本文提供了改进 YOLOv8注意力系列包含不同的注意力机制以及多种加入方式,在本文中…

美团点评智能支付核心交易系统的可用性实践

背景 每个系统都有它最核心的指标。比如在收单领域:进件系统第一重要的是保证入件准确,第二重要的是保证上单效率。清结算系统第一重要的是保证准确打款,第二重要的是保证及时打款。我们负责的系统是美团点评智能支付的核心链路,承…

Transformer太大了,我要把它微调成RNN

文 | 炼丹学徒编 | 小轶从前车马很慢,显卡跑的也慢,一生只够爱一个RNN。后来时代进步了,数据量和计算力阔绰了,堆叠起来的Transformer能够在更深更宽的模型结构里吃下去更多的数据。从19年的预训练浪潮开始,暴力美学兴…

论文浅尝 - JWS2020 | FEEL: 实体抽取和链接的集成框架

论文笔记整理,谭亦鸣,东南大学博士生。来源:JWS 2020链接:https://www.sciencedirect.com/science/article/pii/S157082682030010X?via%3Dihub介绍实体抽取和链接(Entity extraction and linking, EEL)是语…

一步步手动实现热修复(一)-dex文件的生成与加载

*本篇文章已授权微信公众号 guolin_blog (郭霖)独家发布 热修复技术自从QQ空间团队搞出来之后便渐渐趋于成熟。 我们这个系列主要介绍如何一步步手动实现基本的热修复功能,无需使用第三方框架。 在开始学习之前,需要对基本的热…

美团酒旅实时数据规则引擎应用实践

背景 美团点评酒旅运营需求在离线场景下,已经得到了较为系统化的支持,通过对离线数据收集、挖掘,可对目标用户进行T1触达,通过向目标用户发送Push等多种方式,在一定程度上提高转化率。但T1本身的延迟性会导致用户在产生…

开直播辣!生成对抗网络全脉络梳理!

深度学习中最有趣的方法是什么?GAN!最近最火的AI技术是什么?GAN!!你现在脑子里在想什么?搞定GAN!!!【已经大彻大悟要直接报名公开课、挑战万元奖品池的请划到最后】GAN真…

论文浅尝 - ICLR2020 | 具有通用视觉表示的神经机器翻译

论文笔记整理:柏超宇,东南大学在读硕士。来源:ICLR2020 https://openreview.net/forum?idByl8hhNYPS代码链接:https://github.com/cooelf/UVR-NMT简介和动机近年来,不少工作已经证明了视觉信息在机器翻译(…

知识图谱能否拯救NLP的未来?

文 | Luke知乎知识图谱是NLP的未来吗?2021年了,不少当年如日中天技术到今天早已无人问津,而知识图谱这个AI界的大IP最火的时候应该是18,19年,彼时上到头部大厂下到明星创业公司都在PR自己图谱NLP布局能够赋予AI认知能力…

论文浅尝 | Data Intelligence 已出版的知识图谱主题论文

本文转载自公众号:DI数据智能。 知识图谱被称为人工智能的基石,它的前身是语义网,由谷歌在2012年率先提出,用于改善自身的搜索业务。Data Intelligence执行…

一步步手动实现热修复(三)-Class文件的替换

*本篇文章已授权微信公众号 guolin_blog (郭霖)独家发布 本节课程主要分为3块: 1.一步步手动实现热修复(一)-dex文件的生成与加载2.一步步手动实现热修复(二)-类的加载机制简要介绍3.一步步手动实现热修复(三)-Class文件的替换 本节示例所…

Vision Transformer 论文解读

原文链接:https://blog.csdn.net/qq_16236875/article/details/108964948 扩展阅读:吸取CNN优点!LeViT:用于快速推理的视觉Transformer https://zhuanlan.zhihu.com/p/363647380 Abstract: Transformer 架构早已在自然语言处理…