数仓建设实践——58用户画像数仓建设

目录

一、数据仓库&用户画像简介

1.1 数据仓库简介

1.2 数据仓库的价值

1.3 用户画像简介

1.4 用户画像—标签体系

二、用户画像数仓建设过程

2.1 画像数仓—背景&现状

2.2 画像数仓—整体架构

2.3 画像数仓—研发流程

2.4 画像数仓—指标定义

2.5 画像数仓—建模方法论

2.6 画像数仓—事实表

2.6 画像数仓—维度表

2.7 画像数仓—建模规范

2.8 画像数仓—表命名规范

2.9 画像数仓—分层规范

2.10 画像数仓—标签生产流程

2.11 画像数仓—技术实现

2.12 画像数仓—数据质量保障体系

三、成果和总结


   原文大佬介绍的这篇用户画像数仓建设实践有借鉴意义的,这些摘抄下来用作沉淀学习。如有侵权,请告知~

一、数据仓库&用户画像简介

1.1 数据仓库简介

   简而言之,数据仓库是一个集成的、面向主题的、相对稳定的数据集合,它能够反映数据的历史变化。在构建数据仓库时,会根据不同的主题域对数据进行分类,并通过数据建模技术对数据进行重新组织和抽象,以便于从更层次对分析对象进行一致且完整的描述,清晰的刻画出各种分析场景,涵盖企业各个方面的数据。

 以流量主题域为例,可以清楚地知道这个主题域包含了企业所有系统的用户行为数据。数据仓库的集成性特性体现在它能够整合来自不同业务系统的数据。通过大数据采集框架抽取工具,数据被统一存储在数据仓库中,并利用数据建模技术将一些同字同义、同数同表的数据组织成一致性事实与维度。

    数据仓库的相对稳定性意味着数据一旦入库,通常会被长期保留。与关系型数据库相比,数据仓库中的新增、修改和删除操作较少,因为大部分操作都是查询。这种稳定性使得数据仓库能够记录历史数据和事件环境的变化,从而帮助企业对未来发展趋势做出合理的预测和判断。

1.2 数据仓库的价值

数据仓库的价值主要体现在以下几个方面:

  • 快速存取数据:数据仓库统一了数据出口,使得业务人员无需访问各个业务系统来获取数据,从而大幅提升了数据获取和使用的效率。

  • 高质量数据输出:数据仓库通过数据建模和数据质量保障措施,能够过滤掉业务系统中异常的数据,确保输出数据的质量。

  • 响应业务变化:数据仓库的模型能够快速迭代,以满足不同业务场景的分析需求,适应业务的变化。

  • 保障数据安全:对于企业敏感或隐私数据,数据仓库通过去脱敏或加密等手段确保数据安全,并控制数据的使用范围,实现对企业核心数据的细致管理。

  • 及时数据服务:数据仓库能够根据不同需求提供不同粒度的数据服务,例如天级,小时级甚至实时级数据,并在OLAP引擎的支持下实现数据的即席查询。

  • 提高决策能力:企业可以通过数据仓库输出的核心指标来预测未来的发展趋势,做出合理的决策。

1.3 用户画像简介

   用户画像是对用户信息进行标签化处理的过程,它通过收集用户的社会属性,行为特征等信息来对用户进行描述,并对这些特征进行统计分析,以挖掘用户的潜在价值。为了快速收集用户行为数据并挖掘其价值,需要建立一个完善的大数据应用体系。

  用户画像的作用在于,它可以帮助大数据走出数据仓库,通过精准化运营工具为用户提供个性化推荐,精准营销等多样化的数据服务。这样的服务不仅能够提升用户的体验,还能增强数据的价值,使大数据真正成为推动业务发展的有力工具。

1.4 用户画像—标签体系

用户画像从生产者的角度来看,本质上对用户进行打标签的过程。根据打标签的方法,可以将标签分为两类:统计类标签和算法类标签。

  • 统计类标签是最基础和最常见的标签类型,例如用户的访问城市区域商圈、访问天数等。这些标签是基于用户行为和预定义的计算口径生成的。

  • 算法类标签是通过机器学习或者深度学习挖掘产生,用于对用户的某些属性或者某些行为进行预测判断。例如:根据用户行为特征预测用户的性别、年龄等。

58 同城的画像平台,按品牌划分,涵盖了 58 同城、安居客等品牌下的各类标签。根据每个品牌下不同的业务板块进一步细化标签体系,其中的统计类标签就是通过用户画像数仓来生成的。

二、用户画像数仓建设过程

2.1 画像数仓—背景&现状

    首先,介绍一下数仓建设的背景。起初,接收的标签是由历史部门交接过来的,总共有大约 3000 个标签。这些标签涉及的计算口径和数据源等信息,流失的非常严重吗。此外,标签生成流程主要是基于 MapReduce(MR)实现的整个计算过程相当复杂,存在许多冗余的 ETL 任务,且对新的需求支持速度和问题处理效率都较低。再者,标签数据的产出时间非常晚,通常要到下午 2 点左右才能完成当天的 t+1 标签。

为了解决这些问题,进行了标签生产流程的重构,实施步骤主要包括以下两个阶段:

  • 标签计算口径和数据源梳理:从梳理标签的计算口径开始,收集涉及的数据源信息,沉淀出一套完善的标签知识库。在这个过程中,我们还总结出了一套面向数据开发的指标定义规范。

  • 基于标准化数仓建设规范升级流程:根据标准化的数仓建设规范,升级整个标签生产流程,并沉淀了一套相对通用的数仓研发规范。

2.2 画像数仓—整体架构

画像数仓的整体架构如上图所示,自下而上分为三个层级:

  • 垂直数据中心:这是按照不同业务板块划分的数据中心,集中了各个业务领域的资产,并提供了相对标准化的数据,例如用户行为数据,用户注册数据等。目前,画像数仓涵盖了大多数业务的用户数据,日处理数据量约为 20 TB。
  • 公共数据中心:这个中心是按照不同的主题进行划分的,构建了面向不同分析需求的主题数仓。它包含了一些公共汇总数据和明细数据。例如,面向用户行为分析的场景,建设流量数仓提供给业务使用。
  • 应用数据中心:位于公共数据中心之上,它面向不同的需求产出个性化的指标。在用户画像分析场景中,会根据不同的标签需求和应用主题域产出相应的标签数据。

  在整个数仓建设的生命周期中,实施了一系列数据规范,包括建模规范,研发规范,指标定义规范等,以确保数仓架构的稳定性和健康性。

2.3 画像数仓—研发流程

画像数仓的研发流程,从需求沟通到数据验收,分为六个阶段:

  • 需求沟通:这是流程的起始阶段,主要进行需求讨论和分析。
  • 设计:这是流程中最重要的阶段,包括数据源信息的质量探查和分析,数据主题域划分, 指标定义以及模型和ETL设计。在这个阶段,数据开发团队需要输出设计文档,以便进行后续的技术评审。
  • 技术评审:通过评审后,进入开发阶段。
  • 开发:这一阶段主要是面向SQL编程的工作;
  • 测试:开发完成后,进行测试以确保数据的准确性和完整性。
  • 上线与验收:最后阶段,数据开发团队主要以辅助角色支持上线和验收工作;

2.4 画像数仓—指标定义

  接下来,介绍用户画像数仓的指标定义规范。用户画像数仓是为了生产统计类标签而建设的数仓。指标定义的目的是为了快速辅助模型的设计,同时间避免指标二义性以及重复建设的问题,通过明确定义指标,可以确保在数据仓库中对数据的处理和分析更加准确和高效。

根据指标的性质可以将其分为三类:原子指标、派生指标和衍生指标

  • 原子指标:是基于某个业务事件的不可拆分的度量,如支付金额,商品库存等,他们具有明确的业务含义。
  • 派生指标:原子指标+时间周期+多个修饰词。例如,“近一天用户访问二手车类目的次数”中,访问次数是原子指标,近一天是时间周期,二手车是类目相关的修饰词。

  • 衍生指标:是基于派生指标复合而成的指标,例如:比例型指标、均值型指标等。

   在处理数仓接收到的需求时,我们发现大部分是派生指标和衍生指标,原子指标本身并没有具体的业务分析价值,它们是与业务过程相关的一些度量。

  在定义派生指标时,需要清晰的定义出派生指标所涉及的业务板块,所用数据的主题域,来源的业务过程,以及由哪些原子指标和修饰词组成。这样的定义有助于更准确的理解和处理数据仓库中的指标需求。

   在建设画像数仓的过程中,还会遇到一类特殊的指标,例如“最近访问的终端类型”和“长访问房产类目”等标签。这些标签的特殊之处在于它们的计算结果是非数值类型的。这类指标通常根据它们的计算结果来定义,如果计算结果是单值文本类型,就将其定义为排名性指标;如果是多值文本类型,则定义为对象集合类型指标。

    对于这两种特殊指标,我们在定义时会引入一些特殊的原子指标,并增加一些额外的修饰词,以便清晰地描述指标的计算口径。例如,“常访问房产类目”这个标签,其计算口径是“近 90 天内浏览时长 top5 的房产类目”。在这种情况下,我们会将类目集合定义为原子指标,并增加“统计方法”、“排名名次”、“排名范围”和“排名方式”等修饰词,以清晰地描述这个指标的计算口径。

2.5 画像数仓—建模方法论

 常见的建模方法有以下四种:

  • ER模型(实体-关系模型):这种模型要求满足三范式原则,即每一列,每一行以及整张表的数据都具有原子性。ER模型的优点在于它极大的消除了数据冗余,并且能够快速满足实体更新和实体间关系的更新。然而,在面向数据分析场景时,它的缺点是关联查询较多,且难以适应业务的频繁变化。
  • Data Vault 模型:这是在 ER 模型的基础上进一步规范化的模型,是一种中心辐射式模型,是3NF建模的衍生,其建模思想是围绕着业务键的集成模式。Data Vault 模型进一步消除了数据冗余,但在数据分析场景下,它也存在关联查询多和对数据建模要求高的问题。
  • Anchor模型:这是一种 KV(键值)结构化的模型,相对于Data Vault 模型,它进一步整合了数据。Anchor 模型的设计思想是所有实体只添加扩展,不进行修改,这使得它最易于实体扩展和业务变更。不过,相对于前两种模型,在进行数据分析时,它的成本更高,关联查询也更多。
  • 维度建模:这是一种反规范化设计方法,从数据需求出发,同时服务于数据分析需求。它能够满足大规模复杂查询的性能需求,产出指标时关联查询较少,建模成本也较低。然而,与泛式建模相比,它对数据更新不太友好。

    在选择建模方法时,用户画像作为一种分析数据场景,为了低成本、高效率地完成用户标签生产,选择维度建模作为方法论是最合适的。维度建模适用于那些需要快速、频繁地读取数据的分析场景,正好符合用户画像数仓的需求

2.6 画像数仓—事实表

在维度建模中,事实表是关键的表类型,主要用于记录业务过程中的具体事件。事实表可以分为以下四种类型:

  • 事务事实表:在维度建模中,任何类型的事件都可以被视为事务。这类事实表用于定义和追踪业务过程中的个体行为,作为数仓的明细数据,提供了丰富的数据分析能力。在画像数仓中,用户行为事实表是一种特殊的事实表,其特点是没有度量,对于用户访问 58 同城 APP 来说,对于每次点击,其度量都为 1,这种度量通常不会在事实表中保存。
  • 周期快照事实表:与事务事实表相比,这种类型的事实表将多个周期内的多个业务事件汇总到一行数据中。其事实是半可加的,意味着不能按照任意维度进行聚合。
  • 累积快照事实表:主要用来度量实体的生命周期,表中每行数据记录实体一系列业务过程的进展情况,包含从业务开始到结束之间的各个业务事件,例如从用户创建订单到支付的时长,或者从卖家发货到买家收货的时长。

  • 聚集事实表:这种表根据不同的分析维度汇总明细数据,主要作用是加速上层数据的查询速度,同时减少数仓中的数据存储量和计算量。

2.6 画像数仓—维度表

 在维度建模中,维度表是用来描述事实表中各个维度的属性和关系的表。维度表主要包括以下几种:

  • 退化维度:这类维度表除了主键之外没有任何内容,是没有关联的维度表。
  • 雪花/支架维度:雪花维度可以精确表示程式化数据,但使用较少,因为它影响查询效率并对下游使用不友好。支架维度与雪花维度类似,包含对维度的引用关系,也应尽量少用。
  • 角色扮演维度:用于解决事实表中对某个维度多次引用的问题,可以通过表别名或数组的方式扮演不同的维度。
  • 杂项维度:通常指枚举字段,如在事实表中同时存在时,将这些字段单独建立一张维表,并在事实表中保存一个外键。
  • 桥接维度:用于解决事实表与维度或维度之间的一对多或多对多关系。
  • 微型维度:用于解决维表数据量过大或维度变化频率过快的问题,将分析频率较高或变化频率较快的字段单独建立一张维表。
  • 缓慢变化的维度:这类维度有多种处理方式,包括直接更新,增加新行,历史拉链等,需要根据不同的业务分析场景选择合适的处理方式。

    在用户画像数仓中,针对缓慢变化维度的处理,通常采用直接更新的方式,因为许多标签的计算口径只关注最新的用户行为数据。对于关心历史数据变化的场景,可以采用增加新行的方式,需要借助代理键或历史拉近的方式。这些维度表的类型在维度建模中各有其用途和适用场景,对于构建高效、可维护的数据仓库至关重要。

2.7 画像数仓—建模规范

  下面介绍画像数仓在建模时遵循的一些规范:

  • 高内聚、低耦合:这是对模型设计的最基本要求。在建模时,需要考虑数据的业务特性和访问特性,将业务相关,粒度相近的数据存储在一起。
  • 核心模型与扩展模型分离:这个规范要求核心模型的字段支持常用的核心业务,而扩展模型的字段支持个性化或临时性的数据分析需求。同时,要确保扩展模型的字段不会过度侵入核心模型,以维护模型的简洁性和可维护性。
  • 公共处理逻辑下沉且单一:这个规范是指越是底层公用的处理逻辑越应该在数仓的底层进行封装与实现,不要让公用的处理逻辑暴露给应用层来实现,避免公用逻辑多处同时存在。在画像数仓中为了让一些维度满足分析需求时就会按照这个规范来处理,例如常访问租房价格区间标签,在设计价格区间这个字段时就会放到数仓的明细层,而不是在应用层根据用户访问的不同租房价格归属对应的价格区间。
  • 成本与性能平衡:在适当的情况下,通过反规范化方式将维度冗余到事实表中,以换取查询性能。但需注意不要过度冗余,以免增加存储成本和降低查询性能。
  • 数据可回滚:在进行数据冗余时,应建立在不妨碍事实表的基础上,并确保数据可回滚。
  • 数据一致性:在建模时,应确保同字同义或同数同表的数据构建成一致性的事实和维度,避免相同数据在数仓中的命名不一致。

  • 减少代理键使用:由于代理键在分布式计算引擎中的生成代价较高,应尽量避免使用。

  • 表、字段命名规范:表字段的命名应清晰且可理解,这是建模中的基本要求。

这些规范有助于确保用户画像数仓的模型设计合理、高效,并且易于维护和扩展。

2.8 画像数仓—表命名规范

  接下来介绍画像数仓的表命名规范,主要由三个部分组成:数据分层,业务表名和后缀。

  • 数据分层:根据数仓的分层名称来命名表。
  • 业务表名:结合业务主题来为表命名。
  • 后缀:根据数据的存储格式和更新频率来添加后缀

  这样的命名规范有助于清晰地表示表的属性和来源,便于理解和维护数据仓库中的表结构。

2.9 画像数仓—分层规范

整个数仓分为四层:

  • ODS 层(原始数据层):包含业务系统中的原始数据,数据相对标准化。
  • DWD层(明细数据层):根据不同的主题建设,以业务过程为驱动建模,通过反规范化的方式将维度冗余到实时表中,构建最细粒度的明细数据
  • DWS 层(汇总数据层):这一层根据不同的标签需求和面向的分析主题对象,构建不同粒度的汇总数据。
  • APP层(应用数据层):位于DWS层之上,根据不同的标签需求产出对应的标签数据。

这样的分层规范有助于组织和管理画像数仓中的数据,确保数据的层次清晰和有序

2.10 画像数仓—标签生产流程

接下来通过具体某个品牌的标签生产流程,来看一下是如何分层构建的。如上图所示。

  • ODS 层(原始数据层):包含业务系统的用户行为原始数据和相关维度数据。
  • DWS 层(汇总数据层):根据不同标签所属的分析主题域构建不同维度的汇总数据,并按照标签的统计周期构建不同时间粒度的汇总数据。例如,对于关注过去 90 天用户行为的标签,如果一次性汇总 90 天的数据,会导致执行速度非常慢。为了解决这个问题,可以增加一张轻度聚集的每日任务行为数据事实表。此外,DWS 层还包括一张ID Mapping维度表,用于将基础数据中的用户ID转换成标签的主体ID。
  • APP 层(应用数据层):根据标签所属的应用主题域产出对应的标签表。

 这样的标签生产流程确保了数据从原始数据到标签数据的逐层汇总和处理,优化了数据的存储和查询效率。

2.11 画像数仓—技术实现

在了解了标签生产流程之后,再来看一下标签生产过程中ETL(提取,转换,加载)任务的具体技术实现。

  起初,使用Hive SQL来设计标签 ETL 任务。然而,随着标签数据的不断增加,尤其是在任务高峰阶段,Hive SQL的执行效率变得非常低,任务的执行时长也显著增长。这主要有两个原因:一是计算资源不足,是 Hive SQL 对Yarn调度服务的压力较大。Hive SQL的底层是通过 MapReduce(MR)来执行 ETL任务的,每个task在启动时都会向Yarn申请计算资源。当task数量达到一定规模时会导致 Yarn 的调度服务性能下降从而使task长期处于pending状态,无法获取计算资源。

 与Spark相比,Spark通过executor来申请和分配计算资源,每个task 在executor 内部完成资源分配。这种资源调度方式对 Yarn 来说更为轻量级。基于这种调度方式的差异,我们将标签的 ETL 任务升级到了 Spark。与 Hive SQL 相比,Spark 向 Yarn 申请的 container 数减少了近 90%,并且数仓各层任务的运行时长也有显著缩短。

2.12 画像数仓—数据质量保障体系

    数仓建设中,数据质量的保障至关重要。整个质量保障体系围绕数据的完整性,一致性,准确性,即时性和规范性等特性构建。在实践中,我们发现数仓中大约 80% 的数据质量问题源于数据源的脏数据。因此,对数据源进行质量探查与分析变得尤为关键。为此,我们开发了一个专门的数据质量探查工具,通过这个工具可以快速了解表中的数据质量情况,并输出每个字段的分析指标。例如,对于字符串类型的字段,会输出空值或 null 值的条目数以及唯一值 TOP10 等探查指标。这些指标有助于判断数据源中是否存在脏数据并据此快速制定异常数据规避措施和数据监控策略

  在数仓内部,还会针对核心数据增加服务级别协议(SLA)监控,对一些核心指标进行同比和环比监控。对于产出的标签,会制定相应的覆盖率和准确率监控。通过这套完整的数据质量保障体系,确保画像数仓产出的标签稳定且准确,为下游使用提供可靠的数据。

三、成果和总结

   最后来总结一下画像数仓建设的成果。在引入了一系列的规范之后,画像数仓目前涵盖了 8 个主题域,主要包括流量、连接、订单等领域,共有 102 张数据表。通过指标定义的规范化,沉淀了 312 个指标,对应的标签加工的 ETL 任务有 256 个这些成果展示了数仓的架构清晰、数据组织有序,能够有效地支持业务需求和数据分析。

参考文章:

58用户画像数据仓库建设实践

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/775472.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【数据库管理操作】Mysql 创建学生数据库及对数据表进行修改

MySQL 创建学生成绩数据库 1.创建数据库 create database studentscore;创建完成之后,如果需要使用该数据,使用use命令 use studentscore;创建表前查看当前数据库中包含的表 show tables; 2.创建bclass表 create table bclass( class_id char(8) …

Sublime 彻底解决中文乱码

1. 按ctrl,打开Console,输入如下代码: import urllib.request,os; pf Package Control.sublime-package; ipp sublime.installed_packages_path(); urllib.request.install_opener( urllib.request.build_opener( urllib.request.ProxyHand…

ubuntu之搭建samba文件服务器

1. 在服务器端安装samba程序 sudo apt-get install samba sudo apt-get install smbclient 2.配置samba服务 sudo gedit /etc/samba/smb.conf 在文件末尾追加入以下配置 [develop_share] valid users ancy path /home/ancy public yes writable y…

国内ip切换app,让切换ip变得简单

在数字化快速发展的今天,互联网已经成为我们生活中不可或缺的一部分。然而,随着网络应用的深入,用户对于网络环境的需求也日益多样化。其中,IP地址作为网络中的关键标识,其切换与管理显得尤为重要。为了满足用户对于IP…

每日一题 --- 链表相交[力扣][Go]

链表相交 题目:面试题 02.07. 链表相交 给你两个单链表的头节点 headA 和 headB ,请你找出并返回两个单链表相交的起始节点。如果两个链表没有交点,返回 null 。 图示两个链表在节点 c1 开始相交**:** 题目数据 保证 整个链式结…

【C语言】Infiniband驱动init_dev_assign函数

一、注释 一个内核模块的初始化函数,用于分配和初始化某些资源。以下是对代码块的逐行中文注释: // 定义一个初始化设备分配的函数 static void init_dev_assign(void) {int i 1;spin_lock_init(&dev_num_str_lock); // 初始化自旋锁if (mlx4_fil…

R: 网状Meta分析进行模型构建及图形绘制

网状meta分析的制作步骤主要包括: 1. 绘制网状证据图 2. 普通Meta分析(两两之间的直接比较) 3. 网状Meta分析(整合直接比较和间接比较的结果,绘制相关图形) 4. 绘制累积概率排序图 5. 三个假设的检验…

江协STM32:点亮第一个LED灯和流水灯

很多单片机都是高电平弱驱动,低电平强驱动,所以这里是低电平有效 点亮一个LED灯 操作STM32的GPIO需要三个操作: 第一个使用RCC开启GPIO的时钟 第二步使用GPIO_Init函数初始化GPIO 第三步使用输出或输入函数控制GPIO 1.使用RCC开启GPIO的时…

游戏开发笔记:游戏海外版本时区问题(解释时区问题,分解为js写法和lua写法来分析记录,整理出对应语言的相关函数方法。)

对于海外游戏而言,与时间相关的功能,都不能忽略时区的计算。根据 ‘ 服务端资源是有限的,客户端资源是无穷无尽的 ’的定义来说,基本上时区包括时间的计算都是由客户端来进行计算,今天内容也是围绕客户端来展开。 时区算法常见的时间描述时区需要计算的点在lua语言中的写…

Docker数据卷挂载

一、容器与数据耦合的问题: 数据卷是虚拟的,不真实存在的,它指向文件中的文件夹 ,属主机文件系统通过数据卷和容器数据进行联系,你改变我也改变。 解决办法: 对宿主机文件系统内的文件进行修改,会立刻反应…

HBase的Python API操作(happybase)

一、Windows下安装Python库:happyhbase pip install happybase -i https://pypi.tuna.tsinghua.edu.cn/simple 二、 开启HBase的Thrift服务 想要使用Python API连接HBase,需要开启HBase的Thrift服务。所以,在Linux服务器上,执行…

Day23:事务管理、显示评论、添加评论

事务管理 事务的定义 什么是事务 事务是由N步数据库操作序列组成的逻辑执行单元,这系列操作要么全执行,要么全放弃执行。 事务的特性(ACID) 原子性(Atomicity):事务是应用中不可再分的最小执行体(事务中部分执行失败就会回滚 。一致性(C…

Windows入侵排查

目录 0x00 前言 0x01 入侵排查思路 1.1 检查系统账号安全 1.2 检查异常端口、进程 1.3 检查启动项、计划任务、服务 0x00 前言 当企业发生黑客入侵、系统崩溃或其它影响业务正常运行的安全事件时,急需第一时间进行处理,使企业的网络信息系统在最短时…

6_相机坐标系_相机4个坐标系详述

相机系列文章是用来记录使用opencv3来完成单目相机和6轴机械臂手眼标定。本人吃饭的主职是linux下6轴机械臂相关应用开发。但对于机械臂运动学、相机应用等都非常感兴趣,所以对一些线性代数基础薄弱又想深入了解机械臂内部运算的同志比较有体会。由于是探索性学习&a…

9.windows ubuntu 子系统,centrifuge:微生物物种分类。

上次我们用了karken2和bracken进行了物种分类,这次我们使用centrifuge. Centrifuge 是一种用于快速和准确进行微生物分类和物种鉴定的软件。其主要功能包括: 快速分类和物种鉴定: Centrifuge 可以对高通量测序数据(如 metagenomic 或 RNA-Se…

2018年亚马逊云科技推出基于Arm的定制芯片实例

2018年,亚马逊云技术推出了基于Arm的定制芯片。 据相关数据显示,基于Arm的性价比比基于x86的同类实例高出40%。 这打破了对 x86 的依赖,开创了架构的新时代,现在能够支持多种配置的密集计算任务。 这些举措为亚马逊云技术的其他创…

OSPF-区域间路由计算

一、概述 前面学习了我们学习了Router-LSA和Network-LSA,它们都只能在区域内进行泛洪,而且我们之前一直主要是单区域学习。OSPF的核心是骨干区域Area 0,其它都为非骨干区域。但是在大型网络中,单区域OSPF会存在一定的问题&#xf…

HWOD:九键输入法的转换

一、知识点 A的ASCII码是65,Z的ASCII码是90 a的ASCII码是97,z的ASCII码是122 从z到a的反循环,用26求余数 二、题目 1、描述 九键手机键盘上的数字与字母的对应: 1--1, abc--2, def--3, ghi--4, jkl--5, mno--6, …

企微获客助手功能,行为触发如何实现回传的?

获客助手,这个听起来就相当酷炫的名字,它实际上是一个帮助企业将推广流量快速导入企业微信的神器。通过它,企业可以吸引越来越多的用户加为好友,从而建立起更紧密的客户关系。但是,如何进一步提升导入企业微信的流量质…

【机器学习之旅】概念启程、步骤前行、分类掌握与实践落地

🎈个人主页:豌豆射手^ 🎉欢迎 👍点赞✍评论⭐收藏 🤗收录专栏:机器学习 🤝希望本文对您有所裨益,如有不足之处,欢迎在评论区提出指正,让我们共同学习、交流进…