Embedding 、词嵌入、向量模型说的是一回事么?AI是如何理解世界?AI人不能不看的Embedding白话科普!

在AI理解世界的过程中,向量模型扮演着一个至关重要的角色,甚至可以说它是AI大模型用以构建和理解复杂数据的基础,也是对不同形态数据的一种标准化的“浓缩”。它能够将语言、图像、声音等多样化的信息,转化为一种通用的、数学化的表达形式,为AI开启一扇通往对世界智能理解与创造的大门。向量模型擅长将抽象的概念和具体的事物转化为一系列数值,这些数值在多维空间中按照特定的模式排列,形成了向量。

向量模型之所以重要,不仅因为它们为机器学习算法提供了一种高效的数据处理方式,更因为它们是实现可重用性、泛化性和灵活性的关键。在端到端的模型和我们之前提到过的Retrieval-Augmented Generation(RAG)模型中,向量模型的应用更是达到了前所未有的高度,极大地提升了AI的智能水平和应用范围。

今天这篇文章就来大白话给大家科普下这个AI和真实世界连通的桥梁-Embedding!

Embedding、词嵌入和向量模型的关系

“Embedding”、"词嵌入"和"向量模型"这些术语在自然语言处理(NLP)和机器学习中紧密相关,它们之间的关系如下:

Embedding(嵌入):

这是一个通用术语,指的是将数据(可以是词、句子、图像等)转换成数值向量形式的过程。这些向量捕捉了数据的某些特征或属性,使得机器学习算法能够处理。

词嵌入(Word Embedding):

词嵌入是特定于文本数据的嵌入形式,它将单词或短语转换成向量。这些向量能够表示单词的语义和语法特征,使得语义上相似的单词在向量空间中彼此接近。

向量模型(Vector Model):

向量模型通常指的是使用向量表示来处理数据的模型。在NLP中,这通常意味着使用词嵌入作为输入特征的模型。向量模型可以是用于分类、聚类、相似性度量等任务的任何机器学习或深度学习模型。

关系:

嵌入(Embedding) 可以应用于多种类型的数据,不仅限于文本,还可以是图像、声音等,而词嵌入特指文本中的单词或短语的嵌入。

词嵌入(Word Embedding) 是嵌入技术在文本处理领域的应用。词嵌入生成的向量成为向量模型的输入,向量模型利用这些向量来进行各种下游任务。

向量模型(Vector Model) 4是一个更广泛的概念,它不仅包括使用词嵌入的模型,还可以包括使用其他类型嵌入的模型。

一句话总结,词嵌入是嵌入技术在语言处理领域的具体实例,而向量模型则是利用这些嵌入向量进行任务处理的模型。在NLP中,词嵌入向量作为特征输入,使得向量模型能够理解和处理人类语言。

Embedding是什么

在AI的世界,万物皆可 Embedding。在推荐系统、自然语言处理和计算机视觉等领域,Embedding 是一个非常重要的概念。本质上是一种数据降维和特征提取的技术,大多数数据,特别是文本数据,都是高维且稀疏的,这对于大模型是很难理解和高效处理的,而Embedding通过将复杂的数据转换为更简单且容易被大模型理解的向量,来提高数据处理的效率和效果。

Embedding,通常称为嵌入,在机器学习和深度学习中,是一种将离散的或高维稀疏的数据转换为连续的、低维稠密的向量表示的技术。这种向量化表示有助于捕获原始数据的语义或上下文信息,并且通常用于各种下游任务,如分类、聚类、相似性度量等。

高维稀疏数据(High-Dimensional Sparse Data)

高维:指的是数据的维度高,即数据集可以按照很多不同的特征来描述。例如,在文本分析中,每个文本文档可以按照词汇表中的每个单词出现的次数来描述,如果词汇表很大,那么数据的维度就很高。

稀疏:指的是在所有可能的值中,只有少数几个是实际存在的,其余的都是零或缺失值。例如,在文本数据中,一个文档可能只使用了词汇表中的一小部分单词,其余的单词在该文档中没有出现,因此对应的值为零。

低维稠密向量(Low-Dimensional Dense Vectors)

低维:低维意味着数据的维度较少,这通常通过某种形式的降维技术实现,比如主成分分析(PCA)或t-SNE。

稠密:指的是向量中的大多数分量都是非零的。在这种情况下,数据点之间的差异主要通过非零值来体现,而不是通过零值的分布。

向量:在数学和计算机科学中广泛使用,指的是一个有序的数值列表,可以表示为一维数组。在机器学习中,向量常用于表示数据点的特征。

Embedding的魔力就在于,它能把各种形式以及不规则的数据,变成一个个有序的、容易被大模型理解和计算的数值向量,使得在这个连续的向量空间中,大模型能清楚地看到不同事物之间的相似之处和不同之处,以捕捉语义、特征或关系,来提高数据处理的效率和效果。

这样的方式不仅简化了数据结构,还保留了数据的重要特征和模式。在文本处理领域,word embedding(词嵌入)技术经过训练后,能够使语义上相似的单词在向量空间中彼此靠近,而语义差异较大的单词则相隔较远。

图解Embedding的原理

举个例子来看,假设每个单词都可以用𝑛*n个特征进行表示,如下图所示,我们使用图中的这5个特征来刻画”狗”、”蜈蚣”、”君子兰”和”填空”这几个词。

图片

显然,有了这些特征去构建词向量,我们能够根据这些特征比较容易地去划分单词的类别,比如”狗”和”蜈蚣”均是动物,在这个角度上说是一类的,他们之间的距离应该要比”狗”和”君子兰”近。

再看个例子,可以依据猫的长短、体型特征,将猫映射到一个二维坐标系中来可视化猫猫之间的差异

图片

以此类推,我们可以不断增加特征维度,比如眼睛大小,毛发颜色,甚至更加抽象的黏人性等等,我们使用的维度越多,对猫的区分性也就越强,同时坐标点所在的空间维度也就越高。我们在回到词向量上来,按照同样的想法,可以使用这𝑛n个特征来刻画每个单词,并且这𝑛n个特征是浮点类型的,这样可以拓宽表示范围。当我们将视角切换到𝑛n维空间,那么每个词向量其实就相当于是该𝑛n维空间的一个点,相当于是将该单词嵌入到该空间中。

当然我们通常是无法穷举具体的特征类别的,所以在NLP领域一般直接将模型表示为长度为𝑛*n的向量让模型去训练,只是每个向量维度具体代表什么含义是不好去解释的,上面的表格列名是我们举的例子方便大家理解,真实在大模型训练时是不可解释的。如下图左边部分。

图片

右图展示了关于词向量的一些例子,当我们将词向量训练好之后,我们可以看到France, England, Italy等国家之间比较近,并形成一个小簇;dog, dogs,cat,cats形成一个小簇。簇内的单词语义相近,距离一般会比较近,不同簇的单词表示含义香茶较大,距离也就会比较远。

图片

除了文字,图片也可以进行向量的处理

图片

总结来捉,Embedding 是文本的固定长度数值表示,这使得计算机能够轻松地测量文本之间的语义相关性。它们是一些重要自然语言处理(NLP)任务的核心,比如文本相似性、语义搜索、信息检索和重新排序、聚类、下游任务的特征提取等。举几个真实场景的例子大家感受一下:

内容审核: 通过比较社交媒体上的消息与已知的滥用或不当言论案例的相似度,帮助识别和过滤不当内容。

意图分析: 在对话系统或聊天机器人中,通过匹配用户输入的消息与预设的意图类别,确定用户的真实需求或目的。

情感分析: 通过分析文本与已知情感标签的相似度,自动判断文本的情感倾向,如积极、消极或中性。

推荐系统: 通过计算用户偏好与物品特征之间的相似度,为用户推荐可能感兴趣的内容或产品。

稍微扩展一点,将文本转换为词嵌入矢量的算法有很多,例如Word2Vec,GloVe,WordRank,fastText等。所有这些算法都提供了多种单词矢量表示形式,但可以将它们直接输入到NLP模型中。这些算法的用法取决于我们要执行的任务的类型,例如,如果我们要执行单词相似性任务,并且要输出可互换的单词,则应使用Word2Vec,否则,如果我们要输出相关的属性到一个特定的单词,那么我们应该选择WordRank。

Embedding技术的应用不仅限于文本数据。在图像、音频和其他类型的数据中,类似的技术也被用来捕捉和表达数据的内在结构和关系。例如,在图像识别中,通过将图像转换为向量,可以更有效地进行图像检索和分类。

总结来说,Embedding 是文本的固定长度数值表示,这使得计算机能够轻松地测量文本之间的语义相关性。它们是一些重要自然语言处理任务的核心,比如文本相似性、语义搜索、信息检索和重新排序、聚类、下游任务的特征提取等。

Embedding在 RAG 系统中的作用

检索增强生成(RAG)之前已经和大家分享过很多次了,作为一种优化大型语言模型(LLM)输出的方法,使模型能够在生成和响应来自之前引用训练数据之外的知识库,提高了AI大模型响应结果的实时性和准确性。

再次快速回顾一下RAG。LLM 使用海量数据进行训练,拥有数十亿个参数,能够执行诸如回答问题、翻译语言和完成句子等任务。RAG 在 LLM基础上,通过访问特定领域或组织的内部知识库,做到了无需重新训练模型,却可以进一步提升了其输出的相关性、准确性和实用性的效果。经济、高效还百搭各种场景。

而Embedding 对 RAG 来说也是至关重要的基础。我们来看看是为什么。

我们知道RAG 包含的三个主要过程:检索、增强和生成。

检索是根据用户的查询内容,从外部知识库获取相关信息。具体而言,将用户的查询通过Embedding嵌入模型转换为向量,以便与向量数据库中存储的相关知识进行比对。通过相似性搜索,找出与查询最匹配的前 K 个数据。

增强是将用户的查询内容和检索到的相关知识一起嵌入到一个预设的提示词模板中。

生成则是将经过检索增强的提示词内容输入到大型语言模型中,以生成所需的输出。

结合下面这张图来看,上面这条线就是检索,而不论是对用户意图的转化,还是对知识库的知识比对,都需要依赖Embedding的技术

最下面这条线的生成,大模型基于增强后的内容进行输出时,对于输入内容和LLM的知识库的相似度匹配,也是基于Embedding的技术

图片

这样我们就可以理解了为什么Embedding 对 RAG 来说是至关重要的基础,

统一整理一下,Embedding在RAG中主要有以下几个方面的作用:

统一整理一下,Embedding在RAG中主要有以下几个方面的作用:

1. 对用户意图和私域知识进行向量化表示

在 RAG 系统中,用户的请求和知识库中的文档需要被Embedding处理为向量。Embedding向量模型不仅支持文本、也支持图像和视频等多模态数据。转化后的向量捕捉了文本中的语义信息,使得相似的 query 和分块文本在向量空间中彼此接近,如果 Embedding进行向量化表示的过程中表现不佳,那么即使 RAG 系统在其他方面设计得当,最终效果也难以达到预期水平 。

2. 动态更新知识库

在 RAG 系统中,随着新数据的不断加入,知识库需要动态更新。新加入的文档会被实时Embedding转换为向量并添加到向量数据库中,这保证了知识库的实时性和扩展性。Embedding可以高效完成这一过程,不会对系统性能造成明显的影响。

3. 数据隐私和安全

Embedding通过将私域知识转换为向量表示,一定程度上实现了数据的匿名化。原始文本经过Embedding向量化处理后,其具体内容难以直接还原,从而保护了敏感信息。即使攻击者获得了向量表示,也难以重建原始信息。比如在金融领域,向量模型将敏感的金融交易记录转化为向量表示,RAG 系统可以在保护客户隐私的同时,进行高效的信息检索和生成,从而支持金融决策和客户服务。

历史赫赫有名的Embedding模型

词嵌入(Word Embedding)发展历史的时间线图表:

图片

下面我们列举几个在AI发展过程中比较有名的几个Embedding框架,以及它们各自适合的使用场景,大家看个眼熟:

Word2Vec:

Google在2013年开发。Word2Vec作为经典的词嵌入模型,能够为每个词生成静态的向量表示,捕捉局部上下文信息。它在生成词的语义和语法向量方面表现出色,但可能不足以处理长距离依赖关系。Word2Vec是开源的,易于集成和部署,适合于基础的文本分析任务。

GloVe (Global Vectors for Word Representation):

由斯坦福大学和Google在2014年提出,结合了矩阵分解和Word2Vec的特点。GloVe模型通过结合全局统计信息和矩阵分解技术,为词嵌入提供了一种有效的解决方案。它在捕捉词与词之间的语义和语法关系方面表现出色,适用于词义消歧和词向量的质量分析。GloVe开源,易于使用,且计算效率高。

是一种预测模型,它考虑了词语的上下文。与Word2Vec和GloVe不同,ELMo为每个词语生成不同的嵌入,这取决于词语的上下文。例如,"bank"在"he deposited money in the bank"和"he sat on the bank of the river"中的含义是不同的,因此它的嵌入也应该不同。

BERT (Bidirectional Encoder Representations from Transformers):

BERT模型由Google在2018年提出,以其革命性的双向Transformer架构,为自然语言处理任务带来了前所未有的语义理解能力。尽管BERT在处理长文本方面存在一定限制,但它在诸如文本分类、问答和命名实体识别等任务上表现出色。BERT是开源的,可以自由使用,但部署和运行可能需要较高的计算资源。

FastText:

由Facebook在2016年开发,支持n-gram特征和子词信息。FastText模型以其支持子词级别的信息而著称,使得模型能够更好地处理多语言和罕见词汇。在词嵌入任务中,FastText能够生成考虑词形变化的向量表示,适用于多语言环境和语言模型。FastText开源,易于集成,且计算效率高。

t-SNE(t-distributed Stochastic Neighbor Embedding):

由Laurens van der Maaten在2008年提出。t-SNE是一种强大的数据可视化工具,能够将复杂的高维数据集映射到二维或三维空间,同时保持数据点的局部结构。它在展示数据分布和模式识别方面表现出色,但计算成本相对较高。t-SNE是开源的,适用于需要直观展示数据结构的场合。

UMAP (Uniform Manifold Approximation and Projection):

由Leland McInnes在2018年提出。UMAP作为t-SNE的替代品,提供了更快的计算速度和更好的可扩展性。它在大规模数据集的可视化和降维方面表现出色,适用于需要处理大量数据点的场景。UMAP是开源的,易于集成,且计算效率高。

Sentence-Transformers:

由艾伦图灵研究所和德国萨尔布吕肯大学开发。Sentence-Transformers专注于生成高质量的句子嵌入,特别适用于计算句子间的相似度和语义搜索。它在句子级别的NLP任务中表现出色,如文本相似性比较和语义匹配。开源的,易于使用,且支持多种预训练模型。

HuggingFace Transformers:

HuggingFace提供了一个广泛的预训练模型集合,支持多种NLP任务,如文本生成、翻译、摘要等。它在模型的微调和自定义模型的创建方面表现出色。开源,易于集成,且社区活跃,提供了丰富的资源。

OpenAI Embeddings:

OpenAI的Embedding模型,如text-embedding-ada-002,以其出色的性能在长文本搜索、文本相似性和代码搜索等任务上受到认可。它支持高达8K tokens的输入长度,但使用这些模型会根据token数量产生费用。

MTEB-多语言文本嵌入基准测试&热门模型

这么多向量模型,我们要如何衡量一个Embedding模型的有效性呢?

Hugging Face 推出了 MTEB(Massive Text Embedding Benchmark 大规模文本嵌入基准)测试框架,旨在评估文本 Embedding 模型在多种任务上的性能。

它覆盖了 8 类任务和 58 个数据集,涉及 112 种语言,是目前最全面的文本嵌入评估基准之一。MTEB 提供了一个公开的排行榜,用于展示各个模型在不同任务上的表现。

我们发现没有特定的文本嵌入方法在所有任务中都占主导地位。这表明该领域尚未集中在一个通用的文本嵌入方法上,并将其扩展到足以在所有嵌入任务上提供最先进的结果

MTEB排行榜地址:

https://huggingface.co/spaces/mteb/leaderboard

图片

github地址:

https://github.com/embeddings-benchmark/mteb#leaderboard

如图所示,是 MTEB 的测试框架

图片

再来看几个在MTEB上表现出色的热门词嵌入模型:

acge_text_embedding :

由上海合合信息科技股份有限公司发布的文本向量化模型,在中文文本向量化领域取得了重大突破,并荣获MTEB中文榜单(C-MTEB)第一名的成绩。

NV-Embed :

NVIDIA开发的文本嵌入模型,以69.32的分数创下了嵌入准确率的新纪录,覆盖了56项嵌入任务。适用于需要处理大规模数据集和多语言文本的场合,如跨语言信息检索、多语言文本相似性度量等。

E5-mistral-7b-instruct :

微软发布的text embedding模型,在MTEB数据集上取得了优异的成绩,利用合成数据训练,适用于需要处理近100种语言的文本嵌入任务,特别是在多语言环境下的语言模型预训练和微调。

Qwen :

采用了GTE统一文本表示,基于预训练的文本表示模型,通过双塔结构(Dual Encoder)训练。适用于需要快速检索和文本匹配的场景,如搜索引擎的查询扩展、推荐系统的项目匹配等。

BGE-M3 :

智源发布的BGE-M3模型支持超过100种语言,具备领先的多语言、跨语言检索能力,在多个评测基准中达到最优水平。特别适用于多语言和跨语言的检索任务,以及需要高度定制化的企业级应用。

BCEmbedding :

网易有道开源的BCEmbedding模型,具备中英双语和跨语种能力,覆盖多领域。适用于跨语言文本处理任务,如双语文本匹配、多领域文本分类等。

Cohere :

Cohere提供的闭源embedding服务,通过API收费的方式提供服务。适用于需要高度定制化Embedding解决方案的商业应用,如聊天机器人、内容推荐等。

Jina :

同样通过API收费,适用于构建基于向量搜索的应用,如大规模图像或文本检索系统。

GritLM-7B :

GritLM是一种生成表示指令调整语言模型,将文本表示(嵌入)和文本生成统一到一个模型中,适用于需要同时进行文本生成和嵌入表示的任务,如自动文摘、文本续写等。

这些模型在MTEB上的评估结果展示了它们在不同任务和语言上的强大性能。它们各自具有独特的优势和应用场景,无论是学术研究还是商业应用,都提供了强大的支持。

如何选择Embedding向量模型

选择适合企业业务系统的向量模型时,MTEB可以作为一个有益的参考指标,但排名靠前的模型并不一定是最佳选择。实际上,挑选恰当的Embedding模型是一个复杂且精细的决策过程,受多种因素的综合影响,比如:

语言支持和性能

另外,某些模型在主要语言(如中文)中的表现较好,但在处理较少使用的语言时可能会表现不佳。因此,需要评估模型在所有必需语言中的准确性,以确保一致的性能。

处理长文本的能力

切分的文本片段后续需要通过 Embedding 模型进行向量化,所以必须考虑向量模型对输入文本块的 tokens 长度限制,超出这个限制则会导致模型对文本进行截断,从而丢失信息,影响下游任务的性能。

不同的 Embedding 模型对文本块长度的支持能力不同。比如,BERT 及其变体通常支持最多 512 个tokens,处理长文本时则需要将文本分成更小的块,意味着需要更加精细化的分块策略。而 Jina AI 的 Embedding 模型和 bge-m3 模型则支持 8K 的 tokens 输入,适合处理长文本块。

模型在特定领域的表现

通用 Embedding 模型在特定垂直领域(如医学、法律和金融等)可能不如专用模型有效。这些领域通常需要专门训练 Embedding 模型来捕捉特定的专业术语和语境。为特定业务需求优化的 Embedding 模型能够显著提升检索和生成的质量。例如,通过结合向量检索和重排序(reranking)技术,可以进一步优化结果。

存储和内存等资源需求

高维向量需要更多的存储空间,这可能会带来长期成本。例如,较高维度的模型如 text-embedding-ada-002 需要更多的存储资源。另外,较大的模型可能会占用更多内存,因此不适合内存有限的设备。

模型响应时间

Embedding 模型的处理速度在实时应用中尤为关键。例如,intfloat/e5-base-v2 模型在处理速度上表现优异,但需要在 GPU上 运行以达到最佳性能。在选择模型时,需要评估其在嵌入和检索过程中的延迟。例如,OpenAI 的 Embedding 模型在许多基准测试中显示出较高的性能和较低的延迟。

因此,在真实生产环境选择Embedding模型时,需要综合考量语言特性、文本处理需求、领域特定性、模型精确度、硬件资源以及响应时间等多方面因素,以确保所选模型能够满足业务系统的实际需求。

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/36869.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

基于51单片机的银行排队呼叫系统设计

一.硬件方案 本系统是以排队抽号顺序为核心,客户利用客户端抽号,工作人员利用叫号端叫号;通过显示器及时显示当前所叫号数,客户及时了解排队信息,通过合理的程序结构来执行排队抽号。电路主要由51单片机最小系统LCD12…

Vue-cli项目及Element UI 环境搭建 保姆级教程

一、Vue-cli介绍及其作用 什么是Vue-cli手脚架 vue-cli 官方提供的一个脚手架,用于快速生成一个 vue 的项目模板;预先定义 好的目录结构及基础代码,就好比咱们在创建 Maven 项目时可以选择创建一个 骨架项目,这个骨架项目就是脚…

手把手教你玩转AD9361数字调制解调系列(二) ----纯逻辑实现FSK信号的数字调制解调

因最近客户需求,用纯PL实现AD9361的数字信号调制解调,于是就把各种数字调制都在AD9361上都实现了一遍。优点就是:既可以在zynq系列上配置9361,也可以在纯FPGA系列配置9361。并且理解起来比较简单!!&#xf…

lidar3607.2 雷达点云数据处理软件功能介绍

LiDAR360 是北京数字绿土科技股份有限公司自主研发的点云后处理及行业应用软件。平台可处理 TB 级点云数据,并拥有 10 余种国际领先的点云处理及 AI 算法,推动激光雷达 的多行业应用。700 余项强大且灵活的功能,解决用户最后一公里的应用难题…

云仓是如何发展起来的?

1、电子商务的繁荣: 随着电商的兴起,对高效仓储和物流的需求越来越大。传统的仓储方式难以满足海量订单处理和快速配送的要求,因此需要一种更加灵活和高效的仓储解决方案。 ------------------------------------------------- 2、科技进步…

罗盘复杂网络教程—3步轻松构建社团检测任务

作为复杂网络领域中重要的课题之一,社团检测有助于揭示网络中存在的功能性模块或群集,旨在于仅利用网络中蕴含的来识别模块,并可能进而识别它们的层次组织。社团检测在各个领域具有重要的应用,可以帮助深入理解复杂系统潜在的模式…

一键进阶ComfyUI!懂AI的设计师现在都在用的节点式Stable Diffusion

前言 _ 万字教程!奶奶看了都会的 ComfyUI 入门教程 推荐阅读 一、川言川语 大家好,我是言川。 阅读文章 > ](https://www.uisdc.com/comfyui-3) 目前使用 Stable Diffusion 进行创作的工具主要有两个:WebUI 和 ComfyUI。而更晚出现的…

SceneXplain 图片叙事升级:如何让图片听得到

SceneXplain 是一个由多模态 AI 驱动的产品服务,它不仅 提供一流的图像和视频标注解决方案,还具备卓越的多模态视觉问答能力,为用户解锁视觉内容的全新维度。 在[《图像描述算法排位赛》中,我们探讨了图像描述(Image …

有兄弟对这类区域比较感兴趣,也引起我的好奇,我提取出来给大家看看

要说这类地区,亚洲泰国排第二估计没人敢说第一吧,所以我就提取泰国的数据给大家看看! 如图:这些特殊服务地区主要集中在曼谷和芭提雅地区,芭提雅最多!看来管理还是不错的,限制在一定范围&#x…

便携应急气象站设备—实时监测和记录气象数据

TH-BQX10便携应急气象站设备是一种高度集成、轻便易携的气象观测系统。它采用新型一体化结构设计,能够快速安装和拆卸,适用于各种复杂环境。通过集成多种气象传感器,该设备能够实时监测和记录温度、湿度、风向、风速、降雨量、气压等多种气象…

AMEYA360:广和通发布LTE Cat.1 bis模组MC610-GL,赋能全球漫游追踪器

广和通LTE Cat.1 bis模组MC610-GL搭载展锐8910平台,覆盖全球主流LTE频段,下行峰值速率达10.3Mbps,上行速率达5.1Mbps,满足全球终端对4G速率连接的需求;同时支持LTE和GSM双模通信,便于用户灵活切换网络。在尺寸封装上&a…

开放式耳机怎么选?五大2024年口碑销量爆棚机型力荐!

作为一名数码测评up主,今天来测评市面上的开放式耳机。开放式耳机它的设计非常的新颖,不管是舒适的佩戴,还是可以边听音乐,边听到周围的声音,给人更加安全的听感体验。长时间佩戴,不仅舒适度进一步的提升&a…

【机器学习】高斯混合模型(Gaussian Mixture Models, GMM)深度解析

🌈个人主页: 鑫宝Code 🔥热门专栏: 闲话杂谈| 炫酷HTML | JavaScript基础 ​💫个人格言: "如无必要,勿增实体" 文章目录 高斯混合模型(Gaussian Mixture Models, GMM)深度解析引…

【uml期末复习】统一建模语言大纲

前言: 关于uml的期末复习的常考知识点,可能对你们有帮助😉 目录 第一部分 概念与基础 第一章 面向对象技术 第二章 统一软件过程 第三章 UML概述 第四章 用例图 第五章 类图 第六章 对象图 第七章 顺序图 第八章 协作图 第九章 状态…

Transformers 安装与基本使用

文章目录 Github文档推荐文章简介安装官方示例中文情感分析模型分词器 Tokenizer填充 Padding截断 Truncation google-t5/t5-small使用脚本进行训练Pytorch 机器翻译数据集下载数据集格式转换 Github https://github.com/huggingface/transformers 文档 https://huggingface…

Selenium时间控件的处理

我们经常在做web自动化测试过程中会遇到时间控件,那么对于时间控件如何处理,我们可以来分析下。 对于时间控件一般分为两种: 1、普通的时间控件 直接通过send_keys就可以解决 d.get("https://www.ctrip.com/?sid155952&alliancei…

自定义 vant 的 van-calendar 日历控件

最近在做 vue 微信公众号项目&#xff0c; 有个自定义日历控件展示的需求&#xff0c;经过查阅资料&#xff0c;最终实现了如图所示效果&#xff0c;这里做了总结&#xff0c;需要的小伙伴可以参考一下&#xff1a; HTML代码&#xff1a; <template><div class"…

I/O系统

1. I/O接口 接口可以看做两个系统或两个部件之间的交接部分&#xff0c;它既可以是两种硬设备之间的连接电路&#xff0c;也可以是两个软件之间的共同逻辑边界。 I/O接口通常是指主机与I/O设备之间设置的一个硬件电路及其相应的软件控制。 2. 程序查询方式 程序查询方式是一…

知乎正通过乱码来干扰必应/谷歌等爬虫,从而限制中文数据集被用于AI训练

有用户反馈称使用微软必应搜索和谷歌搜索发现存在不少知乎乱码内容&#xff0c;即搜索结果里知乎内容的标题和正文内容都可能是乱码的&#xff0c;但抓取的正文前面一些段落内容可以正常查看。考虑到此前知乎已经屏蔽除百度和搜狗以外的所有搜索引擎爬虫 (蜘蛛 / 机器人)&#…

酣客的“FFC模式”|白酒商业模式|分润制度顶层架构设计

酣客公社摒弃传统商业模式&#xff0c;提出“心联网”及“FFC模式”的商业模式。 坐标&#xff1a;厦门&#xff0c;我是肖琳 深耕社交新零售行业10年&#xff0c;主要提供新零售系统工具及顶层商业模式设计、全案策划运营陪跑等。 今天和大家分享“酣客”的营销模式&#xff…