系统架构设计师——系统性能

性能指标

计算机性能指标

在这里插入图片描述

操作系统性能指标

在这里插入图片描述

网络的性能指标

在这里插入图片描述

数据库的性能指标

在这里插入图片描述

数据库管理系统的性能指标

在这里插入图片描述

应用系统的性能指标

在这里插入图片描述

Web服务器的性能指标

在这里插入图片描述

性能计算

定义法

在这里插入图片描述

计算方法主要包括定义法、公式法、程序检测法和仪器检测法。这些方法分别通过直接获取理想数据、应用衍生出的复合指标公式、程序测试以及仪器测试来评估性能指标。计算方法在工程和科学领域内扮演着至关重要的角色,它涵盖了对各种指标的具体评估方式。以下具体分析这几种方法:

  1. 定义法

    • 理想数据的直接获取:定义法是基于理论或预设的标准直接获取某个性能指标的理想值。这种方法通常用于理论分析,其中性能指标的计算是基于理论模型而不考虑实际运行条件的变化。
    • 适用性与局限性:该方法适用于理论分析或基准测试,但在实际应用中可能因操作环境和外部因素变化而与理想值有较大差异。因此,定义法通常作为初步评估或对比其他测量方法的基准。
  2. 公式法

    • 复合指标的计算:公式法一般适用于根据基本定义所衍生出的复合性能指标的计算。例如,在计算机性能评估中,可以基于CPU主频、每个时钟周期执行浮点运算的次数等参数来计算理论浮点峰值。
    • 案例与应用:如果要计算处理机的运算速度,可以通过其工作主频和每个时钟周期平均执行的指令条数(IPC)来计算,如Pentium IV/2.4E的处理机速度就是通过这种方式得出的4800MIPS。
  3. 程序检测法

    • 程序测试获取数据:程序检测法是通过运行特定的测试程序来实时获取系统的性能数据。这种方法依赖于软件工具和测试脚本,能够在真实的运行环境中进行测量。
    • 动态测试与环境依赖:程序检测法的优势在于能够反映实际使用条件下的性能表现,但由于测试结果受测试环境和运行条件的影响,可能存在波动和不确定性。
  4. 仪器检测法

    • 仪器测试获取数据:仪器检测法侧重于使用物理设备对系统性能进行测试。这类方法通常用于硬件级别的性能评估,例如使用专门的硬件测试仪器来检测网络带宽、系统吞吐量等指标。
    • 精确度与成本:仪器检测法因其直接测量物理参数而具有高精度的特点,但相应的成本也较高,且对操作要求比较严格。

性能计算

MIPS

MIPS (Million Instructions Per Second)是衡量CPU速度的指标,表示每秒能处理百万级的机器语言指令数。以下是对MIPS计算公式的深入解析:

  1. 定义和计算公式
    • MIPS的定义:MIPS即“每秒百万条指令”,是一种衡量计算机中央处理器(CPU)速度的单位。它表明CPU每秒能够执行的百万条机器语言指令的数量。
    • 基本的MIPS计算公式:MIPS = 指令条数 / (执行时间 × 10^6),这个公式展示了如何通过在给定时间内执行的指令条数来计算MIPS。
  2. 相关概念和影响因素
    • CPI (Clock Cycles Per Instruction):CPI是每条指令所需的时钟周期数。这是影响MIPS计算的一个重要因素,因为它直接关系到CPU执行效率。
    • 主频和时钟周期:主频描述的是处理器每秒可以产生的时钟脉冲数,而时钟周期则是这些脉冲之间的时间间隔。它们共同决定了CPU的运行速率和指令执行速度。
  3. 具体计算实例
    • 基于CPI的MIPS计算:如果知道CPU的主频和CPI,可以使用公式 MIPS = 主频 / (CPI × 10^6)来计算MIPS值。例如,如果一个CPU的主频为2GHz,平均CPI为2,则其MIPS为 MIPS = 2,000,000,000 / (2 × 10^6) = 1000 MIPS。
    • 基于执行时间的MIPS计算:如果一段代码包含500条指令,执行时间为5秒,则MIPS = 500 / (5 × 10^6) = 0.1 MIPS。这表明,对于大量指令和较长的执行时间,MIPS值会相对较低。

响应时间

响应时间(Response Time)是指从请求端发起请求开始,到请求端接收到服务器端的返回结束,这个过程所耗费的时间。该指标在计算机和网络性能测试中具有重要意义,因为它完整地记录了系统处理请求交易的时间。

响应时间在实际应用中的表现对于用户体验至关重要。一般来说,用户对响应时间的感知决定了他们对系统性能的评价。例如,在网页浏览中,如果响应时间小于300毫秒,用户基本不会感到延迟;当响应时间在1-3秒之间时,用户可能会觉得有点慢,但还可以接受;然而,如果响应时间超过3秒,用户可能会感到不满;而一旦响应时间超过10秒,用户往往会认为这次请求失败。

吞吐量与吞吐率

吞吐量(Throughput)和吞吐率(Transfer Rate)是衡量系统性能的重要指标,它们从不同的角度反映了系统的处理能力和效率。具体分析如下:

  1. 吞吐量

    • 总数据量:吞吐量是指在一定时间内网络上传输的数据总量,或者可以视为在单次业务中,客户端与服务器端进行的数据交互总量。这个指标反映了服务器承受的压力,并能够说明系统级别的负载能力。
    • 性能测试指标:在性能调优过程中,吞吐量是一个重点关注的指标,因为它可以揭示系统的负载极限。例如,一个工厂可能拥有高生产效率,但若运输能力不足,则整体吞吐量受到限制。这就像系统的瓶颈,决定了整体性能。
  2. 吞吐率

    • 单位时间数据传输:吞吐率特指单位时间内网络上传输的数据量或单位时间内处理的客户请求数。它是用“字节数/秒”或“请求数/秒”来衡量的。吞吐率反映了系统处理数据的速度。
    • 并发处理能力:吞吐率还描述了服务器的并发处理能力,即单位时间内服务器能够处理的最大请求数。通过压力测试,可以评估在不同并发用户数下系统的平均吞吐率,从而了解服务器并发能力的上限。
  3. 吞吐量的计算

    • 定义:吞吐量是指在一定时间内网络上传输的数据总量,或者可以视为在单次业务中,客户端与服务器端进行的数据交互总量。
    • 计算公式:一种常见的吞吐量计算公式是“吞吐量 = 请求总数 / 总时长”,这意味着如果在一分钟内系统接收到60个请求,那么其吞吐量就是60请求/分钟。
  4. 吞吐率的计算

    • 定义:吞吐率特指单位时间内网络上传输的数据量或单位时间内处理的客户请求数。它是用“字节数/秒”或“请求数/秒”来衡量的。
    • 计算公式:吞吐率可以通过以下公式计算:“吞吐率 = 并发数 / 平均响应时间”。例如,如果一个系统在1秒内同时处理了10个请求,且每个请求的平均响应时间为0.1秒,那么吞吐率为100请求/秒。

性能设计

性能设计(Performance Design)是指在系统设计过程中考虑性能因素,确保系统能够在不同负载条件下达到预定的性能目标。这包括识别和解决性能瓶颈、调整性能参数以及优化系统架构。以下是对性能设计过程的详细分析:

  1. 性能考虑
    • 网络通信成本:在数据中心内部,双向消息交换可能需要10 - 50µs,这种延迟在高并发情况下会显著影响性能。因此,在设计中应尽量减少网络通信次数和数据量。
    • I/O操作成本:磁盘I/O操作通常需要5-10 ms,这是数百万次指令的时间。闪存操作也需要10 - 100µs。这些操作比CPU计算更为昂贵,应尽量避免不必要的I/O操作。
    • 动态内存分配:在C语言中使用malloc或在C++和Java中使用new,会带来分配、释放和垃圾回收的开销。因此,设计时应尽量减少动态内存分配,改用对象池等技术重用内存。
  2. 关键路径设计
    • 代码简化:围绕关键路径设计代码,尽量简化代码结构,减少不必要的函数调用和数据结构复杂性。例如,可以将多个变量合并为一个数据结构,以减少计算复杂度。
    • 算法选择:在关键路径上使用高效的算法和数据结构,比如使用平衡树代替列表,以改善性能。通过基准测试确定哪些操作是昂贵的,从而有针对性地进行优化。
  3. 性能调整
    • 数据库系统调整:包括优化数据库设计和SQL语句,监控CPU和内存使用率,管理进程和线程状态,以及硬盘剩余空间和日志文件大小。这些措施有助于提高数据库的处理能力和稳定性。
    • 应用系统调整:关注系统的可用性和响应时间,以及特定应用的资源占用情况。通过调整并发用户数和系统资源占用,优化应用性能。
  4. 系统约束与性能目标
    • 识别系统约束:明确系统的可维护性和其它非功能性需求,集中优化不受约束的因素。
    • 指定系统负载:确定系统的客户端服务需求,包括客户端数目、思考时间和负载分布。这些信息有助于设定实际的性能测试场景。
    • 设定性能目标:明确性能目标,包括总系统吞吐量和响应时间。为每个性能指标设定具体的目标值,以便进行有针对性的优化。
  5. 架构优化
    • 缓存策略:通过引入缓存来减少数据库和后端服务的读取压力,提升读取性能。缓存可以显著加快响应时间,减轻后端负载。
    • 消息队列:使用消息队列异步处理数据写入,提升系统的写入性能。消息队列有助于提高响应速度,同时确保数据处理的一致性。
    • 集群架构:构建服务器集群以提高系统的并发处理能力。通过负载均衡将请求分发到多个服务器,确保系统在高负载下仍能保持稳定。

阿姆达尔定律

阿姆达尔定律(Amdahl’s Law)是计算机系统设计的重要定量原理之一,于1967年由IBM360系列机的主要设计者阿姆达尔首先提出。该定律的核心思想是:系统中对某一部件采用更快的执行方式所能获得的系统性能改进程度,取决于这种执行方式被使用的频率,或所占总执行时间的比例。以下是对该定律的具体分析:

  1. 加速比的计算
    • 定义:加速比是指不使用增强部件时完成整个任务的时间与使用增强部件时完成整个任务的时间的比值。具体公式为[S = \frac{T_{\text{original}}}{T_{\text{new}}}],其中 (T_{\text{original}}) 是没有采用改进措施前执行某任务的时间, (T_{\text{new}}) 是采用改进措施后执行某任务的时间。
    • 计算实例:例如,运行一个程序需要100秒,其中乘法运算占用了80秒。如果要使整个程序速度提高五倍,即 (T_{\text{new}} = \frac{100}{5} = 20) 秒,那么加速比为 (S = \frac{100}{20} = 5)。
  2. 可改进部分的占比
    • 定义:可改进部分占比 (F_e) 是指可改进部分占用的时间与改进前整个任务的执行时间的比值。具体公式为[F_e = \frac{\text{可改进部分占用的时间}}{\text{改进前整个任务的执行时间}}]。
    • 计算实例:在上述例子中,乘法运算占用的80秒可以视为可改进部分,因此 (F_e = \frac{80}{100} = 0.8)。
  3. 改进后整个任务的执行时间
    • 定义:改进后整个任务的执行时间 (T_n) 可以通过以下公式计算:[T_n = T_0 \cdot \left((1 - F_e) + \frac{F_e}{S_e}\right)] 其中,(T_0) 是改进前执行任务的总时间,(S_e) 是可改进部分的加速比。
    • 计算实例:假设乘法器的速度提高到了原来的10倍,则其加速比 (S_e = 10)。根据公式,改进后整个任务的执行时间为:[T_n = 100 \cdot \left((1 - 0.8) + \frac{0.8}{10}\right) = 28) 秒。
  4. 系统的最大加速比
    • 定义:系统的最大加速比受串行部分的限制。当并行部分的加速比趋于无穷大时,系统的最大加速比为[\frac{1}{1 - F_e}] 。这意味着即使对并行部分进行极大的优化,系统的加速比仍然受限于串行部分的执行时间。
    • 计算实例:如果串行代码占整个代码的25%,则系统的最大加速比为[\frac{1}{1 - 0.25} = 1.33],即无论如何优化,系统性能不可能超过这个上限。
  5. 并行处理效果的加速比
    • 定义:在并行计算中,加速比 (S) 可以通过公式[S = \frac{1}{(1 - a) + \frac{a}{n}}] 计算。其中,(a) 是并行计算部分所占比例,(n) 是并行处理节点个数。
    • 计算实例:假设有4个处理节点,并行计算部分占50%,则加速比为[S = \frac{1}{(1 - 0.5) + \frac{0.5}{4}} = 1.6]。
  6. 性能优化的应用
    • 应用场景:阿姆达尔定律常用于评估处理器性能提升的程度。例如,在优化CPU性能时,如果某项操作从串行改为并行,可以显著提高整体性能。然而,依据阿姆达尔定律,这种提升是有上限的。
    • 应用实例:在存储系统性能分析中,利用阿姆达尔定律可以预测并行存储系统的最大性能提升。通过合理分配资源和调整并行度,可以实现高效的系统设计。

负载均衡

负载均衡是计算机网络领域的一个重要概念,用于实现高性能、高并发、高可用、可扩展和增安全的系统架构。在当今互联网的快速发展下,传统的单服务器架构已无法满足日益增长的业务需求,而负载均衡技术恰好解决了这一难题。以下是对负载均衡的详细解释和分析:

  1. 负载均衡的基本概念
    • 定义:负载均衡是由多台服务器以对称方式组成对等服务器集群,每台服务器地位等价,可单独对外提供服务。
    • 目的:通过分配客户请求到不同的服务器,提高系统性能、增加吞吐量、提供高可用性和可扩展性。
  2. 负载均衡的类型
    • DNS负载均衡:通过在DNS服务器上配置多个域名对应IP的记录,将域名解析请求分配到合适的服务器上。
    • HTTP负载均衡:根据用户的HTTP请求计算出真实web服务器地址,并将该地址写入HTTP重定向响应中返回给浏览器。
    • IP负载均衡:在网络层通过修改请求目标地址进行负载均衡,如LVS实现的包括NAT、DR和TUN三种方法。
    • 链路层负载均衡:在数据链路层修改MAC地址进行负载均衡。
    • 混合型负载均衡:多种均衡方式组合使用。
  3. 负载均衡算法
    • 轮询:依次分发请求到每台服务器,适用于服务器硬件相同的场景。
    • 随机:随机分配请求到各个服务器。
    • 最少链接:将请求分配到连接数最少的服务器,即当前处理请求最少的服务器。
    • Hash:根据IP地址进行Hash计算,得到IP地址,确保同一会话期内同一IP的请求转发到相同服务器。
    • 权重:在轮询、随机、最少链接、Hash等算法基础上,通过加权方式进行负载服务器分配。
  4. 负载均衡的应用场景
    • 高性能:通过分布式处理和并行计算,显著提高系统的处理能力,使系统能够同时处理大量请求,从而提升性能。
    • 高并发:通过分散请求到多个服务器,增加系统吞吐量,保证在高并发情况下系统的稳定运行。
    • 高可用:通过故障侦测和自动转移机制,确保当某个服务器出现故障时,其他服务器能够继续提供服务,达到高可用性。
    • 可扩展:负载均衡架构方便系统进行水平扩展,通过增加服务器节点来提高系统处理能力和承载更大的流量。
    • 增安全:利用访问控制列表(ACL)和其他安全措施,增强系统的安全性,防止恶意攻击和数据泄露。
  5. 负载均衡的实现技术
    • Nginx反向代理:Nginx作为七层负载均衡的代表,通过反向代理实现负载均衡,广泛应用于Web应用。
    • LVS:作为四层负载均衡的代表,通过Linux内核实现高性能、高可用的负载均衡集群,具有良好的可靠性和可操作性。
    • 硬件负载均衡器:如F5 BIG-IP、Citrix NetScaler等,这些设备提供专业的负载均衡功能,但成本较高。
  6. 负载均衡的架构设计考量
    • 冗余设计:确保每个关键组件都有备份,避免单点故障,提高系统的容错能力。
    • 分布式架构:采用分布式技术如NoSQL数据库、分布式文件系统、消息队列等,确保系统的可扩展性和高可用性。
    • 缓存策略:采用多级缓存架构,减轻数据库负担,提高响应速度,避免缓存雪崩和穿透问题。
    • 监控与调优:实时监控系统性能,通过日志分析和性能测试,及时发现并解决潜在问题,优化系统性能。

性能评估

评估方法

  1. 时钟频率法
    • 定义:时钟频率法是通过测量计算机的时钟频率(单位为赫兹Hz),来评定CPU性能的方法。
    • 应用:这种方法简单直观,能够在一定程度上反映机器的速度。主频越高,速度通常越快。然而,相同频率但不同体系结构的机器,性能可能会有很大差异。
  2. 指令执行速度法
    • 定义:指令执行速度法通过计算计算机执行指令的速度(如每秒执行百万条指令MIPS)来评估性能。
    • 特点:该方法在计算机初期被广泛使用,尤其是通过加法指令的运算速度来衡量整体性能。现代计算中,这种方法逐渐暴露出其局限性。
  3. 等效指令速度法
    • 定义:等效指令速度法(吉普森混合法)通过计算各类指令在程序中所占的比例及其执行时间,来综合评估性能。
    • 公式:等效指令的执行时间 (T = \sum_{i=0}^n (w_i \cdot t_i)),其中 (w_i) 是指令类型的比例,(t_i) 是对应指令的执行时间。
    • 优点:该方法解决了单种指令无法全面评估性能的问题,提供了一种更为全面的性能评估手段。
  4. 数据处理速率法
    • 定义:数据处理速率法(PDR)通过计算每条指令和每个操作数的平均位数以及每条指令的平均运算速度来评估性能。
    • 公式:(PDR = \frac{L}{R}),其中 (L) 和 (R) 分别为指令和操作数相关参数的函数。
    • 局限:PDR主要用于评估CPU和主存间的速度,并不能全面反映计算机的整体性能。
  5. 综合理论性能法
    • 定义:综合理论性能法(CTP)使用每秒百万次理论运算(MTOPS)作为计量单位,评估计算机的综合性能。
    • 过程:首先计算各计算单元的有效计算率,然后按字长进行调整,得出理论性能,最后求和得到CTP。
    • 背景:CTP最初由美国政府设立,用于限制高性能计算机的出口。
  6. 基准程序法
    • 定义:基准程序法通过运行一系列预先设定好的典型程序(基准测试程序),来评估计算机的实际工作能力。
    • 种类:常见的基准程序包括Dhrystone、Linpack、Whetstone等,分别用于测量整数性能和浮点性能。
    • 优势:这种方法综合考虑了CPU、内存、I/O系统、操作系统和编译程序的效率,因此能够较为准确地反映计算机在实际应用中的表现。

以下是关于不同类型基准测试程序的介绍:

  1. 真实程序
    • 定义:真实程序基准测试使用实际的应用程序作为测试标准,能够直接反映特定应用在目标系统上的表现。
    • 特点:这类测试通常用于验证某个实际应用场景下的性能,如数据库操作、科学计算等。
  2. 原始程序
    • 定义:原始程序基准测试是将实际应用中最关键的部分提取出来,形成独立的测试程序。
    • 应用:例如,Whetstone基准测试主要测量浮点性能,而Dhrystone则用于评估整数运算性能。
  3. 核心程序
    • 定义:核心程序基准测试是从真实程序中提取的核心部分,这些部分通常是执行频率最高的代码段。
    • 优势:由于仅关注最耗时的部分,因此可以更精确地评估系统在关键操作上的性能。
  4. 小型基准程序
    • 定义:小型基准程序是专门设计的简短程序,用于测试系统在特定条件下的性能,如CPU性能或内存访问速度。
    • 例子:Lmbench就是一组小型基准测试程序集,用于测试处理器、内存、网络等各方面的性能。
  5. 合成基准程序
    • 定义:合成基准程序是人工设计的程序,通过模拟多种操作来评估系统的整体性能。
    • 应用:这类测试常用于初步评估新系统或进行硬件调整后的性能变化。
  6. 基准测试程序组
    • 定义:基准测试程序组是由多个基准测试程序组成的集合,用于全面评估系统在不同工作负载下的表现。
    • 典型代表:SPEC测试集包括了多个综合型和应用型的基准程序,用于评价CPU、存储器以及编译器的性能。

Web服务器性能评估

Web服务器性能评估是确保网站能够高效、稳定运行的重要环节。它涵盖了基准性能测试、压力测试和可靠性测试等多个方面。以下是对这三种测试类型的详细介绍:

  1. 基准性能测试
    • 最大用户并发数:这是指在某一时刻,服务器能够同时处理的最大连接请求数。这个指标反映了服务器在高并发情况下的处理能力。
    • 吞吐量:吞吐量是指单位时间内服务器处理的请求数量。高吞吐量意味着服务器能够在繁忙时段快速响应并处理大量请求。
    • 响应时间:响应时间是指从客户端发起请求到服务器作出响应所需的时间。在实际应用中,用户对响应时间非常敏感,较长的响应时间会严重影响用户体验。
  2. 压力测试
    • 响应延迟:响应延迟是响应时间的变种,更侧重于在高负载情况下服务器的响应速度。通过压力测试,可以了解服务器在极限条件下的表现。
    • 失效时间:失效时间是指在压力测试中,服务器因无法承受负载而出现故障的时间点。这个指标可以帮助识别系统的薄弱环节并进行优化。
  3. 可靠性测试
    • 平均失效前时间(MTTF):MTTF是指服务器在发生故障前平均正常运行的时间。这个指标衡量了服务器的可靠性,MTTF越长表示服务器越稳定。
    • 平均恢复前时间(MTTR):MTTR是指服务器发生故障后,恢复正常工作所需的平均时间。较短的MTTR意味着服务器能够快速从故障中恢复,减少服务中断的影响。
    • 平均故障间隔时间(MTBF):MTBF是服务器两次故障间的平均时间间隔。与MTTF类似,MTBF也是评估服务器可靠性的重要指标。

系统监视

系统监视是确保计算机系统正常运行的关键步骤。它涉及对系统性能、资源使用情况和运行状态的持续监测和分析。以下是一些常用的系统监视工具和方法:

  1. 压力测试:通过模拟大量用户或高负载情况来评估系统的性能和稳定性。常见的压力测试工具包括Apache JMeter、LoadRunner等。

  2. 响应延迟:测量系统处理请求所需的时间,通常以毫秒为单位。可以使用各种监控工具(如Grafana、Zabbix)来实时跟踪响应延迟。

  3. 系统管理命令:操作系统提供了许多内置的命令行工具,用于查看和管理系统资源。例如,在Linux系统中,ps命令可以显示当前运行的进程,last命令可以查看登录历史记录;在Windows系统中,netstat命令可以显示网络连接状态,Perfmon可以提供详细的性能数据。

  4. 系统日志记录:系统日志记录了系统活动和事件的信息,对于故障排查和性能优化至关重要。常见的日志文件包括系统日志(syslog)、应用程序日志(application logs)和安全日志(security logs)。

  5. 系统管理应用:有许多第三方应用程序可用于系统管理和监控,如Nagios、Zabbix、Prometheus等。这些工具提供了更丰富的功能,如警报、报告和可视化界面。

  6. nux: ps, last:在Linux系统中,ps命令用于列出当前运行的进程,而last命令用于查看系统的登录历史记录。

  7. nux: system-monitor:这是一个通用的Linux系统监视器,可以实时显示系统资源的使用情况,如CPU、内存、磁盘空间等。

  8. win: netstat:在Windows系统中,netstat命令用于显示网络连接、路由表和网络接口统计信息。

  9. win: Perfmon:Windows Performance Monitor(Perfmon)是一个强大的性能监视工具,可以收集和分析系统的各种性能指标,如处理器使用率、内存使用情况、磁盘活动等。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/52899.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

shell脚本—————局域网IP扫描

#!/bin/bash #该脚本用于采集某个C类网络存活主机的MAC地址 #使用方法:bash 脚本名字网卡名字网段前三位.10.144.100. #ETH$(ifconfig | grep eth | awk {print $1})for ip in {1..254} do { arping -c 2 -w 1 -I $1 $2$ip| grep "reply from" > /dev/…

SAP 查询中间表

可以看到如下代码中,查询了底表zdbconn,又查了中间表ZTFI0072 DATA: gv_dbs(20) ,go_exc_ref TYPE REF TO cx_sy_native_sql_error,gv_error_text TYPE string,lv_count TYPE syst_index.SELECT SINGLE conntxtFROM zdbconn INTO gv_dbsWHERE sy…

YOLOV5入门教程day3

一. 导入包和基本配置 import argparse import math import os import random import subprocess import sys import time from copy import deepcopy from datetime import datetime, timedelta from pathlib import Pathtry:import comet_ml # must be imported before torc…

[论文笔记] LLM模型剪枝

Attention Is All You Need But You Don’t Need All Of It For Inference of Large Language Models LLaMA2在剪枝时,跳过ffn和跳过full layer的效果差不多。相比跳过ffn/full layer,跳过attention layer的影响会更小。 跳过attention layer:7B/13B从100%参…

前端常考面试题

一、HTML 二、CSS 1. vw vh em rem 2. 盒模型 是什么,啥区别 3. 2栏布局、三栏布局 4. 水平垂直剧中效果 5. BFC 6. 移动端 三、Js 1. 列举JS常用算法 2. Promise的方法和状态 3. 排序算法有哪些 4. 深浅拷贝 5. 防抖和节流 6. 数组扁平化 自己递归…

Eureka简介与开发

Eureka 是由 Netflix 开源的服务发现和注册中心,它提供了服务的注册与发现功能,是 Spring Cloud 体系中的核心组件之一。Eureka 采用 C/S 架构,包含 Eureka Server 和 Eureka Client 两个主要的组件。 **Eureka Server** 充当服务注册中心&a…

数字芯片中I/O单元及电源domain布局中SIPI的考虑

芯片设计的物理实施过程通常也简称为布局布线(P&R,Place-and-Route),布局一般被分为布局规划(Floorplan)和标准单元摆放(Place)两个过程。而其中的布局规划是芯片后端物理实现过…

Cubase操作:就地渲染 配和弦技巧 合并多段音频 隐藏标记轨序号 删除素材池多余音频

“授人以鱼,不如授之以渔,授人以鱼只救一时之急,授人以渔则可解一生之需。” ​有时侯做音乐最重要的就是不要太死板和要多思考!如果被教的只有一部分,只学一部分,有时是很难理解的,一些人可能只…

2 Python开发工具:PyCharm的安装和使用

本文是 Python 系列教程第 2 篇,完整系列请查看 Python 专栏。 1 安装 官网下载地址https://www.jetbrains.com.cn/pycharm/,文件比较大(约861MB)请耐心等待 双击exe安装 安装成功后会有一个30天的试用期。。。本来想放鸡火教程&…

【python笔记】deque()、list()、heapq主要区别

内部实现 1、deque() deque是Python中的一个双端队列,位于collections模块中。 数据结构: deque 是一个双端队列,其内部实现基于一个双向链表。 这意味着元素不是连续存储在内存中的,而是分布在多个节点中,每个节点包含…

05_react应用(基于react脚手架)

react应用(基于react脚手架) 一、使用 create-react-app 创建 react 应用1、react 脚手架2、创建项目并启动3、react 脚手架项目结构 二、样式冲突解决方案、 react 插件安装、编码流程1、样式冲突2、vscode 的 react 插件安装3、功能界面的组件化编码流…

单挑ChatGPT模型,AI最强竞争对手来了!

在2024年3月,Anthropic公司发布了最新的Claude 3系列模型,包括Claude 3 Haiku、Claude 3 Sonnet和Claude 3 Opus三款模型。这些模型在性能上全面超越了之前的版本,并且在多个基准测试上表现出色,被认为是AI技术的一大突破。Claude…

C练手题--Exclusive “or“ (xor) Logical Operator 【8 kyu】

一、原题 链接:Training on Exclusive "or" (xor) Logical Operator | Codewars Exclusive "or" (xor) Logical Operator Overview In some scripting languages like PHP, there exists a logical operator (e.g. &&, ||, and, or, e…

Android源码编译_内置apk

在开发过程中,有一部分apk,我们是需要出厂内置好的,例如输入法、客户定制app等,这里内置分两种,一种是只内置apk,不含apk源码,一种是包含apk源码。 一、如何将apk内置到系统 1、首先将apk放到…

从零开始:scikit-learn决策树分类实战

在这个大数据和人工智能盛行的时代,机器学习已经成为了人们日常生活中不可或缺的一部分。从推荐系统到自动驾驶,背后都有机器学习的身影。今天,我们将一起探索一种简单却强大的机器学习算法——决策树,并使用Python中的scikit-lea…

基于RDMA的nfs服务

背景 ib网卡nfs服务实现简单的存储共享,暂时顶替还未上线的存储设备,同时也解决 单纯的使用scp rsync等不支持rdma协议拷贝无法正确使用ib网络 说明 前提是系统上已配置安装好ib网卡驱动,且ib网络正常使用,配置参考 https://bl…

中国各城市金融科技公司数目数据集(2009-2023年)

金融科技(FinTech)是金融与科技深度融合的产物,它利用大数据、云计算、人工智能、区块链等现代信息技术手段,对传统金融产品、业务、流程及服务模式进行革新,从而实现金融服务效率的提升、风险管理的优化以及客户体验的…

【解决方案】令牌桶限流器(Redis+LUA+Python实现)

1 缘起 系统需要对某些功能做限流,因为,这个功能CPU消耗远高于其他功能,最高可占用100%分配的CPU,导致整个系统无法对外提供服务。 为了保证系统稳定运行,以及缓解CPU高消耗,对这些高CPU消耗的功能做限流处理, 而限流方案有多种:计数器算法、滑动窗口算法、漏桶算法和…

C语言 | Leetcode C语言题解之第389题找不同

题目&#xff1a; 题解&#xff1a; char findTheDifference(char* s, char* t) {int n strlen(s), m strlen(t);int ret 0;for (int i 0; i < n; i) {ret ^ s[i];}for (int i 0; i < m; i) {ret ^ t[i];}return ret; }

【C++设计模式】(三)创建型模式:单例模式

文章目录 &#xff08;三&#xff09;创建型模式&#xff1a;单例模式饿汉式懒汉式饿汉式 v.s. 懒汉式 &#xff08;三&#xff09;创建型模式&#xff1a;单例模式 单例模式在于确保一个类只有一个实例&#xff0c;并提供一个全局访问点来访问该实例。在某些情况下&#xff0…