mysql优化指南之优化篇

二、优化

现在的理解数据库优化有四个维度,分别是:

硬件升级、系统配置、表结构设计、SQL语句及索引。

那优化的成本和效果分别如下:

优化成本:硬件升级>系统配置>表结构设计>SQL语句及索引。

优化效果:硬件升级由下图可以看出性价比排名也是硬件升级

一般我们我们在项目中做事也是选择性价比最高的项来开始做,下面也从这个顺序讲:

(一)SQL语句及索引

根据当前计算机硬件的基本性能指标及其在数据库中主要操作内容,可以整理4个优化法则:

1、 减少数据访问(减少磁盘访问)

2、 返回更少数据(减少网络传输或磁盘访问)

3、 减少交互次数(减少网络传输)

4、 减少服务器CPU开销(减少CPU及内存开销)

以下是每个优化法则层级对应优化效果及成本经验参考:

优化法则

性能提升效果

优化成本

减少数据访问

1~1000

返回更少数据

1~100

减少交互次数

1~20

减少服务器CPU开销

1~5

1、减少数据访问

1.1、创建并使用正确的索引

MySQL支持多种索引类型,这些索引类型在不同的存储引擎中可能有所不同。以下是MySQL中常见的索引类型,以及它们通常支持的存储引擎:

索引类型

存储引擎

适用场景

  1. B+Tree索引
    • InnoDB
    • MyISAM
    • MEMORY
    • NDB (Cluster)

B+Tree索引是最常见的索引类型,用于等值查询、范围查询和LIKE查询。InnoDB的主键索引就是B-Tree索引的一个特例,称为聚簇索引。

  1. 哈希索引
    • MEMORY

哈希索引基于哈希表实现,主要用于等值查询,并且不支持排序和范围查询。MEMORY存储引擎支持哈希索引。

  1. 全文索引
    • MyISAM
    • InnoDB (从MySQL 5.6开始)

全文索引主要用于文本数据的全文搜索,支持自然语言查询、布尔模式查询和查询扩展。MyISAM和InnoDB存储引擎支持全文索引。

  1. 空间索引 (R-Tree索引)
    • MyISAM

空间索引用于空间数据类型,如GEOMETRY,支持对空间对象的快速检索。MyISAM存储引擎支持R-Tree索引。

在上面的几种索引中我们在实际生产中使用最多的是B+Tree索引,其他的使用场景比较少,B+Tree的原理如下:

1.非叶子节点不存据,只存储索引值,这样便于存储更多的索引值

2.叶子节点包含了所有的索引值和data数据

3.叶子节点用指针连接,提高区间的访问性能

B+树进行范围查找时,从根节点开始,对节点内的索引值序列采用二分法查找,查找定位两个节点的索引值,然后利用叶子节点的指针进行遍历即可。

1.1.1、索引字段的选择

那我们一般在什么字段上建索引?这是一个非常复杂的话题,需要对业务及数据充分分析后才能得出结果。主键及外键通常都要有索引,其它需要建索引的字段应满足以下条件:

1、字段出现在查询条件中,并且查询条件可以使用索引;

2、语句执行频率高,一天会有几千次以上;

3、更新非常频繁的字段不适合创建索引;

4、索引使用<>时,效果一般;

5、通过字段条件可筛选的记录集一般要小于总数的10%

1.1.2、什么条件会使用索引

当字段上建有索引时,通常以下情况会使用索引:

INDEX_COLUMN = ?

INDEX_COLUMN > ?

INDEX_COLUMN >= ?

INDEX_COLUMN < ?

INDEX_COLUMN

INDEX_COLUMN between ? and ?

INDEX_COLUMN in (?,?,...,?)

INDEX_COLUMN like ?||'%'(后导模糊查询)

T1. INDEX_COLUMN=T2. COLUMN1(两个表通过索引字段关联)

1.1.3、索引失效场景:

不等于操作不能使用索引:

NDEX_COLUMN <> ?

INDEX_COLUMN not in (?,?,...,?)

经过普通运算或函数运算后的索引字段不能使用索引:

function(INDEX_COLUMN) = ?

INDEX_COLUMN + 1 = ?

INDEX_COLUMN || 'a' = ?

含前导模糊查询的Like语法不能使用索引:

INDEX_COLUMN like '%'||?

INDEX_COLUMN like '%'||?||'%'

B-TREE索引里不保存字段为NULL值记录,因此IS NULL不能使用索引:

INDEX_COLUMN is null

类型转换:

NUMBER_INDEX_COLUMN='12345'

CHAR_INDEX_COLUMN=12345

1.1.4、索引使用技巧:
  • 使用联合索引的查询:

MySQL可以为多个字段创建索引,一个索引可以包括16个字段。对于联合索引,只有查询条件中使用了这些字段中第一个字段时,索引才会生效。如果存在范围查询,比如between、>、

  • SQL语句中IN包含的值不应过多,不超过200个
  • 当只需要一条数据的时候使用limit 1
  • 排序字段加索引
  • 如果限制条件中其他字段没有索引尽量少用or
  • 尽量用union all代替union
  •  使用OR关键字的查询:

查询语句的查询条件中只有OR关键字,且OR前后的两个条件中的列都是索引时,索引才会生效,否则,索引不生效。

  • 索引下推      
  • 覆盖索引(不回表)
  • 区分in和exists、 not in和not exists:

区分in和exists主要是造成了驱动顺序的改变(这是性能变化的关键),如果是exists,那么以外层表为 驱动表,先被访问,如果是IN,那么先执行子查询。所以IN适合于外表大而内表小的情况;  EXISTS适合 于外表小而内表大的情况。

关于not in和not exists,推荐使用not exists,

  • 分段查询 

数据量大可以分段进行查询,循环遍历,将结果合并处理进行展示

  • 必要时可以使用force index来强制查询走某个索引
  • 使用JOIN优化:
  • LEFT JOIN A表为驱动表,  INNER JOIN MySQL会自动找出那个数据少的表作用驱动表,  RIGHT JOIN B 表为驱动表。

从原理图能够直观的看出如果能够减少驱动表的话,减少嵌套循环中的循环次数,以减少 IO总量及CPU运算的次数。要注意的是被驱动表的索引字段作为on的限制字段。

  • 数据字段长使用前置索引

等等,这样的优化技巧还有很多,在具体实践中再进行总结再进行补充。不过遵循这样技巧后具体的是否索引生效还是实现需要看执行计划。

正确的索引可以让查询性能提升100,1000倍以上,但索引会大大增加表记录的DML(INSERT,UPDATE,DELETE)开销,因此在一个表中创建什么样的索引需要平衡各种业务需求。索引对DML(INSERT,UPDATE,DELETE)附加的开销有多少?这个没有固定的比例,与每个表记录的大小及索引字段大小密切相关,以下是一个普通表测试数据,仅供参考:

索引对于Insert性能降低56%

索引对于Update性能降低47%

索引对于Delete性能降低29%

因此对于写IO压力比较大的系统,表的索引需要仔细评估必要性,另外索引也会占用一定的存储空间。下面介绍下执行计划。

1.2、sql执行计划

SQL执行计划是关系型数据库最核心的技术之一,它表示SQL执行时的数据访问算法。下来我们先了解一下执行计划是怎样的

在MySQL中可以使用EXPLAIN查看SQL执行计划,用法:EXPLAIN SELECT * FROM tablename

下面来看一个例子:

下面解释下每一行的含义

  •  id:SELECT识别符。这是SELECT查询序列号。这个不重要。
  •  select_type:表示SELECT语句的类型。

例如:

1、 SIMPLE表示简单查询,其中不包含连接查询和子查询。

2、 PRIMARY表示主查询,或者是最外面的查询语句。

3、 UNION表示连接查询的第2个或后面的查询语句。

DEPENDENT UNION:UNION中的第二个或后续的查询语句,使用了外面查询结果

UNION RESULT:UNION的结果

SUBQUERY:SELECT子查询语句

DEPENDENT SUBQUERY:SELECT子查询语句依赖外层查询的结果。

最常见的查询类型是SIMPLE,表示我们的查询没有子查询也没用到UNION查询

  •  table表示查询的表。
  •  type表示表的连接类型。

以下的连接类型的顺序是从最佳类型到最差类型:

1、 system表仅有一行,这是const类型的特列,平时不会出现,这个也可以忽略不计。

2、 const数据表最多只有一个匹配行,因为只匹配一行数据,所以很快,常用于

3、 eq_refmysql手册是这样说的:"对于每个来自于前面的表的行组合,从该表中读取一行。这可能是最好的联接类型,除了const类型。它用在一个索引的所有部分被联接使用并且索引是UNIQUE或PRIMARY KEY"。eq_ref可以用于使用=比较带索引的列。

4、 ref查询条件索引既不是UNIQUE也不是PRIMARY KEY的情况。ref可用于=或操作符的带索引的列。

5、 ref_or_null该联接类型如同ref,但是添加了MySQL可以专门搜索包含NULL值的行。在解决子查询中经常使用该联接类型的优化。

上面这五种情况都是很理想的索引使用情况。

6、 index_merge该联接类型表示使用了索引合并优化方法。在这种情况下,key列包含了使用的索引的清单,key_len包含了使用的索引的最长的关键元素。

7、 unique_subquery该类型替换了下面形式的IN子查询的ref: value IN (SELECT primary_key FROM single_table WHERE some_expr) unique_subquery是一个索引查找函数,可以完全替换子查询,效率更高。

8、 index_subquery该联接类型类似于unique_subquery。可以替换IN子查询,但只适合下列形式的子查询中的非唯一索引: value IN (SELECT key_column FROM single_table WHERE some_expr)

9、 range只检索给定范围的行,使用一个索引来选择行。

10、 index该联接类型与ALL相同,除了只有索引树被扫描。这通常比ALL快,因为索引文件通常比数据文件小。

11、 ALL对于每个来自于先前的表的行组合,进行完整的表扫描。(性能最差)

  •  possible_keys指出MySQL能使用哪个索引在该表中找到行。

如果该列为NULL,说明没有使用索引,可以对该列创建索引来提高性能。

  • key显示MySQL实际决定使用的键(索引)。如果没有选择索引,键是NULL。
  •  key_len显示MySQL决定使用的键长度。如果键是NULL,则长度为NULL。

注意:key_len是确定了MySQL将实际使用的索引长度。

  • ref显示使用哪个列或常数与key一起从表中选择行。
  • rows显示MySQL认为它执行查询时必须检查的行数。
  •  Extra该列包含MySQL解决查询的详细信息

· Distinct:MySQL发现第1个匹配行后,停止为当前的行组合搜索更多的行。

· Not exists:MySQL能够对查询进行LEFT JOIN优化,发现1个匹配LEFT JOIN标准的行后,不再为前面的的行组合在该表内检查更多的行。

· range checked for each record (index map: #):MySQL没有发现好的可以使用的索引,但发现如果来自前面的表的列值已知,可能部分索引可以使用。

· Using filesort:MySQL需要额外的一次传递,以找出如何按排序顺序检索行。

· Using index:从只使用索引树中的信息而不需要进一步搜索读取实际的行来检索表中的列信息。

· Using temporary:为了解决查询,MySQL需要创建一个临时表来容纳结果。

· Using where:WHERE 子句用于限制哪一个行匹配下一个表或发送到客户。

· Using sort_union(...), Using union(...), Using intersect(...):这些函数说明如何为index_merge联接类型合并索引扫描。

· Using index for group-by:类似于访问表的Using index方式,Using index for group-by表示MySQL发现了一个索引,可以用来查 询GROUP BY或DISTINCT查询的所有列,而不要额外搜索硬盘访问实际的表。

1.3、使用缓存

在读多写少的情况下可以使用本地缓存或者分布式缓存来解决一部分读流量在缓存层面承接,不必到数据库层面。

2、返回更少的数据

2.1、数据分页处理

一般数据分页方式有:

2.1.1、客户端(应用程序或浏览器)分页

将数据从应用服务器全部下载到本地应用程序或浏览器,在应用程序或浏览器内部通过本地代码进行分页处理

优点:编码简单,减少客户端与应用服务器网络交互次数

缺点:首次交互时间长,占用客户端内存

适应场景:客户端与应用服务器网络延时较大,但要求后续操作流畅,如手机GPRS,超远程访问(跨国)等等。

2.1.2、应用服务器分页

将数据从数据库服务器全部下载到应用服务器,在应用服务器内部再进行数据筛选。以下是一个应用服务器端Java程序分页的示例:

List list=executeQuery(“select * from employee order by id”);

Int count= list.size();

List subList= list.subList(10, 20);

优点:编码简单,只需要一次SQL交互,总数据与分页数据差不多时性能较好。

缺点:总数据量较多时性能较差。

适应场景:数据库系统不支持分页处理,数据量较小并且可控。

2.1.3、数据库SQL分页

采用数据库SQL分页需要两次SQL完成

一个SQL计算总数量

一个SQL返回分页后的数据

优点:性能好

缺点:编码复杂,需要两次SQL交互。

SELECT * FROM table_name ORDER BY some_column LIMIT limit_value OFFSET offset_value;

当使用大的 OFFSET 值时,MySQL 必须扫描并跳过许多行才能到达所需的行。一种优化技术是使用“上一页的最后一个 ID”而不是 OFFSET 来获取下一页的数据。

SELECT * FROM table_name WHERE id > last_id_of_previous_page ORDER BY id LIMIT page_size;

2.2、只返回需要的字段
2.2.1通过去除不必要的返回字段可以提高性能

调整前:select * from product where company_id=?;

调整后:select id,name from product where company_id=?;

2.2.2 垂直分表

T_FILE(ID,FILE_NAME,FILE_SIZE,FILE_TYPE,FILE_CONTENT)

我们可以分拆成两张一对一的关系表:

T_FILE(ID,FILE_NAME,FILE_SIZE,FILE_TYPE)

T_FILECONTENT(ID, FILE_CONTENT)

通过这种分拆,可以大大提少T_FILE表的单条记录及总大小,这样在查询T_FILE时性能会更好,当需要查询FILE_CONTENT字段内容时再访问T_FILECONTENT表。

2.2.3 覆盖索引

有些时候,我们只是访问表中的几个字段,并且字段内容较少,我们可以为这几个字段单独建立一个组合索引,这样就可以直接只通过访问索引就能得到数据,一般索引占用的磁盘空间比表小很多,所以这种方式可以大大减少磁盘IO开销。

如:select id,name from company where type='2';

如果这个SQL经常使用,我们可以在type,id,name上创建组合索引

create index my_comb_index on company(type,id,name);

有了这个组合索引后,SQL就可以直接通过my_comb_index索引返回数据,不需要访问company表。

3、减少交互次数

3.1、batch DML

数据库访问框架一般都提供了批量提交的接口,jdbc支持batch的提交处理方法,当你一次性要往一个表中插入1000万条数据时,如果采用普通的executeUpdate处理,那么和服务器交互次数为1000万次,按每秒钟可以向数据库服务器提交10000次估算,要完成所有工作需要1000秒。如果采用批量提交模式,1000条提交一次,那么和服务器交互次数为1万次,交互次数大大减少。采用batch操作一般不会减少很多数据库服务器的物理IO,但是会大大减少客户端与服务端的交互次数,从而减少了多次发起的网络延时开销,同时也会降低数据库的CPU开销。

假设要向一个普通表插入1000万数据,每条记录大小为1K字节,表上没有任何索引,客户端与数据库服务器网络是100Mbps,以下是根据现在一般计算机能力估算的各种batch大小性能对比值:

以上仅是理论计算值,实际情况需要根据具体环境测量。

3.2、In List

很多时候我们需要按一些ID查询数据库记录,我们可以采用一个ID一个请求发给数据库,这样的我们将单次查询改为in,用ID INLIST的这种方式写SQL,需要注意的是数据库对in的个数限制,一般mysql是300,但是上了200以上可以找dba进行评估

select * from mytable where id in(:id1,id2,...,idn);

3.3、使用存储过程

大型数据库一般都支持存储过程,合理的利用存储过程也可以提高系统性能。如你有一个业务需要将A表的数据做一些加工然后更新到B表中,但是又不可能一条SQL完成,这时你需要如下3步操作:

a:将A表数据全部取出到客户端;

b:计算出要更新的数据;

c:将计算结果更新到B表。

如果采用存储过程你可以将整个业务逻辑封装在存储过程里,然后在客户端直接调用存储过程处理,这样可以减少网络交互的成本。

当然,存储过程也并不是十全十美,存储过程有以下缺点:

a、不可移植性,每种数据库的内部编程语法都不太相同,当你的系统需要兼容多种数据库时最好不要用存储过程。

b、学习成本高,DBA一般都擅长写存储过程,但并不是每个程序员都能写好存储过程,除非你的团队有较多的开发人员熟悉写存储过程,否则后期系统维护会产生问题。

c、业务逻辑多处存在,采用存储过程后也就意味着你的系统有一些业务逻辑不是在应用程序里处理,这种架构会增加一些系统维护和调试成本。

d、存储过程和常用应用程序语言不一样,它支持的函数及语法有可能不能满足需求,有些逻辑就只能通过应用程序处理。

e、如果存储过程中有复杂运算的话,会增加一些数据库服务端的处理成本,对于集中式数据库可能会导致系统可扩展性问题。

个人观点:普通业务逻辑尽量不要使用存储过程,定时性的ETL任务或报表统计函数可以根据团队资源情况采用存储过程处理。

4、减少数据库服务器CPU运算

4.1、合理使用排序

普通OLTP系统排序操作一般都是在内存里进行的,对于数据库来说是一种CPU的消耗,曾在PC机做过测试,单核普通CPU在1秒钟可以完成100万条记录的全内存排序操作,所以说由于现在CPU的性能增强,对于普通的几十条或上百条记录排序对系统的影响也不会很大。但是当你的记录集增加到上万条以上时,你需要注意是否一定要这么做了,大记录集排序不仅增加了CPU开销,而且可能会由于内存不足发生硬盘排序的现象,当发生硬盘排序时性能会急剧下降,这种需求需要与DBA沟通再决定,取决于你的需求和数据,所以只有你自己最清楚,而不要被别人说排序很慢就吓倒。

以下列出了可能会发生排序操作的SQL语法:

Order by

Group by

Distinct

Exists子查询

Not Exists子查询

In子查询

Not In子查询

Union(并集),Union All也是一种并集操作,但是不会发生排序,如果你确认两个数据集不需要执行去除重复数据操作,那请使用Union All 代替Union。

Minus(差集)

Intersect(交集)

4.2、大量复杂运算在客户端处理

什么是复杂运算,一般我认为是一秒钟CPU只能做10万次以内的运算。如含小数的对数及指数运算、三角函数、3DES及BASE64数据加密算法等等。如果有大量这类函数运算,尽量放在客户端处理,一般CPU每秒中也只能处理1万-10万次这样的函数运算,放在数据库内不利于高并发处理。

(二)数据库结构优化

1、优化表结构

一般在创建库和数据表时,就应该考虑每张表的数据类型大小。为每个表的数据字段选择合适的类型会减少数据表每一行的存储大小。设想下,每行节约十几个字节,那么100W行的数据量节约的存储量是相当可观的,且存储量越小的表执行查询的速度也就越快。对于数据表的字段类型常用设计原则如下:

b、尽量少使用DOUBLE和DECIMAL类型;

c、时间类型上,尽量使用TIMESTAMP而非DATETIME,其存储空间只需要 DATETIME 类型的一半;

d、单表不要有太多字段,建议在50以内;

e、尽量设置NOT NULL,避免使用NULL字段,NULL字段很难查询优化且占用额外索引空间;

f、 对于只包含特定类型的字段,可以使用enum、set 等符合数据类型;

g、 数值型字段的比较比字符串的比较效率高得多,字段类型尽量使用最小、最简单的数据类型。例如P地址可以使用int类型;

h、 尽量使用TINYINT、SMALLINT、MEDIUM_INT作为整数类型而非INT,如果非负则加上UNSIGNED;

j、 VARCHAR的长度只分配真正需要的空间;

k、少使用text等大字段;

2、设计中间表

设计中间表 ,一般针对于统计分析功能,或者实时性不高的需求(OLTP、OLAP)

3、设计冗余字段

为减少关联查询,创建合理的冗余字段(创建冗余字段还需要注意数据一致性问题)

4、主键优化

每张表建议都要有一个主键(主键索引),而且主键类型最好是有顺序的数值类型。

5 、表拆分

5.1 垂直拆分

垂直拆分按照字段进行拆分,其实就是把组成一行的多个列分开放到不同的表中,这些表具有不同的结构,拆分后的表具有更少的列。例如用户表中的一些字段可能经常访问,可以把这些字段放进一张表里,另外一些不经常使用的信息就可以放进另外一张表里。插入的时候使用事务,也可以保证两表的数据一致。缺点也很明显,由于拆分出来的两张表存在一对一的关系,需要使用冗余字段,而且需要join操作,我们在使用的时候可以分别取两次,这样的来说既可以避免join操作,又可以提高效率。

还有就是按业务平台的不同类型功能模块进行拆分,比如分为订单库、资源库、用户库。拆分之后,每个业务平台中的应用工程只访问对应的业务数据库,一方面将单点数据库拆分成了多个,分摊了单库的读写IO压力;另一方面,拆分后的数据库各自独立,实现了业务隔离,不再互相影响。

5.2 水平拆分

水平拆分按照行进行拆分,常见的就是分库分表。以用户表为例,可以取用户ID,然后对ID取10的余数,将用户均匀的分配进这 0-9这10个表中。查找的时候也按照这种规则,又快又方便。有些表业务关联比较强,那么可以使用按时间划分的。例如每天的数据量很大,需要每天新建一张表。这种业务类型就是需要高速插入,但是对于查询的效率不太关心。表越大,插入数据所需要索引维护的时间也就越长。

水平拆分优点:

a、经过拆分后,不存在单库数据量大和高并发的性能瓶颈;

b、提高了系统的稳定性和负载能力;

c、缓解单库IO压力;

水平拆分缺点:

a、分库事务的一致性难以解决;

b、跨库Join表性能问题,逻辑复杂;

c、跨库count/order by/group by以及聚合函数问题;

d、切分策略如何选择,策略问题很可能导致数据分布不均匀问题;

e、全局主键问题;

应对水平拆分问题的方案:

a、跨库事务问题

解决跨库事务问题主要可以通过两种方法。第一种方法,使用分布式事务,简单有效但是性能代价高。第二种方式,应用程序和数据库共同控制保证,将一个跨多个数据库的分布式事务分拆成多个仅处于单个数据库上面的小事务,并通过应用程序来总控各个小事务。该方案优点在于能够灵活控制,缺点在于改造量较大。

b、跨库Join表的问题

对于业务平台的数据持久层来说,涉及复杂的Join多表查询在所难免。解决这一问题的普遍做法是分两次查询解决。在第一次查询的结果集中找出关联数据的id,根据这些id发起第二次请求得到关联数据。

c、跨节点的count,order by,group by以及聚合函数问题

与解决跨节点join问题的类似,只需要分别在各个单库上得到结果后在业务应用端进行合并。和join不同的是每个结点的查询可以采用多线程方式并行执行(在jdk8中可以用CompletableFuture解决),因此很多时候它的合并速度要比单个大数据量的表快很多。

d、数据分片策略选择

水平拆分中一个比较重要的问题就是按照什么逻辑策略来进行数据分片(即为拆分库表)。一种方案是按照地域类的属性进行拆分;另外一种方案则是按照订单ID/用户ID进行拆分。按照地域类的属性进行拆分会使得数据聚合度比较高,做聚合查询比较简单,实现也相对简单,缺点是数据分布不均匀。按订单ID拆分则正相反,优点是数据分布均匀,不会出现一个数据库数据极大或极小的情况,缺点是数据太分散,不利于做聚合查询。比如,按订单ID拆分后,一个客户的订单可能分布在不同的数据库中,查询一个客户下面的所有订单,可能需要查询多个数据库。对于这种情况,一种解决方案是将需要聚合查询的数据做冗余表,冗余的表不做拆分,同时在业务开发过程中,减少聚合查询。

e、全局主键问题

原本依赖数据库生成主键(比如自增)的表在拆分后需要自己实现主键的生成,因为一般拆分规则是建立在主键上的,所以在插入新数据时需要确定主键后才能找到存储的表。在实际应用中,可以参考全局发号器方案。

分库分表的组件可以用Sharding-JDBC或者MyCat。

5.3 分区

当数据库单表存的数据量过大时候,可以考虑采用分区表的方案来解决。MySQL的分区表是由多个相关的物理子表组成,这些表也是可以由句柄对象表示,所以对于用户也可以直接访问各个分区,存储引擎管理分区的各个物理表和管理普通表一样(所有的底层表都必须使用相同的存储引擎),分区表的索引只是在各个底层表上各自加上一个相同的索引。

MySQL在创建表时使用PARTITION BY子句定义每个分区存放的数据。在执行查询时,优化器会根据分区定义过滤那些没有需要数据的分区,这样查询就无须扫描所有分区—只需查找包含数据的分区即可。

MySQL主要支持4种模式的分区:range分区、list预定义列表分区,hash 分区,key键值分区。

MySQL分区表的优点:

a、单表可以存储更多的数据;

b、分区表的数据更容易维护,可以通过清除整块分区以批量删除大量数据,也可以增加新的分区来支持新插入的数据;

c、部分查询能够从查询条件确定只落在少数分区上,查询执行速度比较快;

d、分区表的数据还可以分布在不同的物理设备上,从而高效地利用多个硬件设备;

e、可以使用分区表来避免某些特殊瓶颈,例如InnoDB单个索引的互斥访问、ext3文件系统的inode锁竞争;

f、可以备份和恢复单个分区;

分区表的限制和缺点

a、一个表最多只能分1024个区;

b、如果分区字段中有主键或者唯一索引的列,那么所有主键列和唯一索引都必须包含;

c、分区表中无法使用外键约束;

下面是根据时间字段来建立分区表的一个示例:

分区表适合的场景

a、最适合的场景数据的时间序列性比较强,则可以按时间来分区,查询时加上时间范围条件效率会非常高,同时对于不需要的历史数据能很容易批量删除;

b、如果数据有明显的热点,而且除了这部分数据,其他数据很少被访问到,那么可以将热点数据单独放在一个分区,让这个分区的数据能够有机会都缓存在内存中,查询时只访问一个很小的分区表,能够有效使用索引和缓存;

6、读写分离

大型网站会有大量的并发访问,如果还是传统的数据结构,或者只是单单靠一台服务器扛,如此多的数据库连接操作,数据库必然会崩溃,数据丢失的话,后果更是不堪设想。这时候,我们需要考虑如何减少数据库的联接。我们发现一般情况对数据库而言都是“读多写少”,也就说对数据库读取数据的压力比较大,这样分析可以采用数据库集群的方案。其中一个是主库,负责写入数据,我们称为写库;其它都是从库,负责读取数据,我们称为读库。这样可以缓解一台服务器的访问压力。

7、数据库集群

如果访问量非常大,虽然使用读写分离能够缓解压力,但是一旦写操作一台服务器都不能承受了,这个时候我们就需要考虑使用多台服务器实现写操作。例如可以使用MyCat搭建MySql集群,对ID求3的余数,这样可以把数据分别存放到3台不同的服务器上,由MyCat负责维护集群节点的使用。

(三)硬件优化

可以从以下几个方面考虑:

1、 配置较大的内存。足够大的内存,是提高MySQL数据库性能的方法之一。内存的IO比硬盘快的多,可以增加系统的缓冲区容量,使数据在内存停留的时间更长,以减少磁盘的IO。

2、 磁盘I/O相关

使用SSD或者PCIe SSD设备,至少获得数百倍甚至万倍的IOPS提升;

尽可能选用RAID-10,而非RAID-5

使用机械盘的话,尽可能选择高转速的,例如选用15000RPM,而不是7200RPM的盘

(四)MySQL服务器参数

通过优化MySQL的参数可以提高资源利用率,从而达到提高MySQL服务器性能的目的。MySQL的配置参数都在my.conf或者my.ini文件的[mysqld]组中,常用的参数如下:

  • read_buffer_size:顺序读的缓冲区,变大提高顺序读效率,
  • read_rnd_buffer_size:随机读的缓冲区,变大提高随机读效率,
  • sort_buffer_size:排序缓冲区,变大提高排序效率,
  • join_buffer_size:连接缓冲区,变大提高表连接效率,
  • binlog_cache_size:二进制缓冲区,变大提高binlog写入效率,默认32768,
  • tmp_table_size:临时表缓冲区,变大提高临时表存储效率,
  • innodb_log_buffer_size:变大提高Redo日志写入效率,
  • key_buffer_size:表索引高速缓冲,变大提高 MyISAM 表索引读写效率,
  • query_cache_size:查询缓存,变大提高查询结果返回效率,建议关闭,
  • innodb_buffer_pool_size:用于缓存行数据、索引数据,以及事务锁和自适应哈希等,可以设置为物理内存的50%-80%,
  • bing_format:可以设置为row,让数据更加安全可靠,
  • wait_timeout:当MySQL连接闲置超过一定时间后将会被强行关闭。MySQL默认的wait-timeout值为8个小时。设置这个值是非常有意义的,比如你的网站有大量的MySQL链接请求(每个MySQL连接都是要内存资源开销的),由于你的程序的原因有大量的连接请求空闲啥事也不干,白白占用内存资源,或者导致MySQL超过最大连接数从来无法新建连接导致“Too many  connections”的错误。在设置之前你可以查看一下你的MYSQL的状态(可用showprocesslist),如果经常发现MYSQL中有大量的Sleep进程,则需要 修改wait-timeout值了。
  • max_connections:是指MySql的最大连接数,如果服务器的并发连接请求量比较大,建议调高此值,以增加并行连接数量,当然这建立在机器能支撑的情况下,因为如果连接数越多,介于MySql会为每个连接提供连接缓冲区,就会开销越多的内存,所以要适当调整该值,不能盲目提高设值。MySQL服务器允许的最大连接数16384。
  • max_user_connections:max_user_connections是指每个数据库用户的最大连接针对某一个账号的所有客户端并行连接到MYSQL服务的最大并行连接数。简单说是指同一个账号能够同时连接到mysql服务的最大连接数。设置为0表示不限制。
  • default-storage-engine:default-storage-engine= InnoDB(设置InnoDB类型,另外还可以设置MyISAM类型)设置创建数据库及表默认存储类型。
  • innodb_flush_log_at_trx_commit设置为0或2,innodb_flush_log_at_trx_commit是MySQL InnoDB存储引擎独有的参数,用于控制InnoDB的Redo log日志记录方式。通过调优该参数,可以提升数据库的性能和数据安全性。该参数的取值范围为0、1、2,不同的值代表MySQL数据库的Redo log不同的刷盘的方式:

当innodb_flush_log_at_trx_commit=1时,InnoDB将在每次事务提交时将log buffer的数据更新到文件系统os buffer中,并调用文件系统的flush操作将数据缓存更新至磁盘中。此种方式下,数据库完全遵守ACID特性,安全性较高。

当innodb_flush_log_at_trx_commit=2时,InnoDB将在每次事务提交时将log buffer中的数据更新到文件系统缓存中,每秒钟将文件系统缓存中的数据更新到磁盘一次,该操作由操作系统调度。因为DDL变更或其他InnoDB内部原因会导致更新磁盘的操作独立于innodb_flush_log_at_trx_commit参数设置,不能完全保证每秒更新磁盘一次,没有被更新到磁盘中的事务可能会因宕机而丢失。

当innodb_flush_log_at_trx_commit=0时,InnoDB会每秒钟将log buffer中的数据更新到磁盘中。因为DDL变更或其他InnoDB内部原因会导致更新磁盘的操作独立于innodb_flush_log_at_trx_commit参数设置,并不能完全保证每秒将数据更新到磁盘一次。因此,在实例崩溃恢复场景中,可能会出现丢失1秒钟的事务。

需要注意的是,当innodb_flush_log_at_trx_commit设置为0或2时,并不能完全保证每秒将数据更新到磁盘一次,但也有可能更频繁地更新数据到磁盘。因此,在实际应用中,需要根据性能和数据安全性等方面的需求来设置。

  • sync_binlog设置为N,sync_binlog是MySQL Binlog日志的重要参数,用于控制Binlog的更新策略,通过对该参数的调优,可以提升数据库的性能和数据安全性:

当sync_binlog=1时,MySQL会在每次事务提交后,将Log Buffer中的数据更新到磁盘上,此时MySQL安全性较高,但是IO消耗也较高。

当sync_binlog=0时,MySQL会在每次事务提交后将binlog_cache中的数据更新至文件系统缓冲区,但不会进行持久化,而是依赖操作系统来调度数据刷入磁盘。

当sync_binlog=N时,MySQL会在每N组事务提交后将数据更新到磁盘中。通过这种方式,可以在一定程度上平衡MySQL的性能和数据的安全性。如果N设置得比较大,可以提高系统的性能,但会降低数据的安全性。

综上所述,innodb_flush_log_at_trx_commit和sync_binlog参数需要根据具体的需求来设置:

  • 在对数据安全性要求较高的场景下,建议将这两个参数设置为1。在对实例性能要求较高的场景下,建议将这两个参数设置为0或者将innodb_flush_log_at_trx_commit设置为0,sync_binlog设置为N,以提高系统的性能,但需要注意可能会增加数据丢失的风险。
  • mrr设置为on,mrr_cost_based: on,尽可能的使用mmr来将随机磁盘读转化为顺序磁盘读,从而提高了索引查询的性能
  • 启用BKA,BKA主要适用于join的表上有索引可利用。

启用sql:SET global optimizer_switch='mrr=on,mrr_cost_based=off,batched_key_access=on';

算法原理:将外层循环的行/结果集存入join buffer,内存循环的每一行数据与整个buffer中的记录做比较,可以减少内层循环的扫描次数。

(五)linux参数

  • 在 Linux 系统中,关于 JO 调度问题,建议使用 deadline 或者 noop模式。不要使用cfq模式,因为会影响数据库性能。其中,对数据库这种随机读写的场景最有利的算注是deadline 模式。在新兴的固态硬盘(比如 SSD、 Fusion I/O)上,最简单的noop反而可能好的算法,因为其他3个算法的优化是基于缩短寻道时间的,而固态硬盘没有所谓的寻道且1/O响应时间非常短。
  • 设置内核参数vm.swappiness=1

该参数表示使用swap的意向,要不惜一切代价避免使用swap(交换)分区。swapim参数值可设置范围在0-100之间。低参数值会让内核尽量少用交换,高参数值会使内核更地去使用交换空间。不建议设置为0,因为有可能会引发out of memory,但可以设置为1示尽量不使用swap。

  • 文件系统选择推荐使用xfs

推荐在Linux 下使用xfs文件系统,其次是选择ext4文件系统,放弃ext3。xis是一性能的日志文件系统,特别擅长处理大文件,对比ext3、ext4。MySQL在xfs上一般有性能、更高的吞吐,相比 ext4更能保证数据完整。

(六)其他

1、数据库连接池

使用数据库连接池可以将 资源重用,得到更快的系统响应速度,一般是先查询根据上文提到的max_connections和max_user_connections后,来配置应用程序中的数据库连接池,常用的数据库连接池有druid、dbcp、HikariCP等,一般在druid中要配置如下几项:

initialSize

3

初始化配置

minIdle

3

最小连接数

maxActive

15

最大连接数

maxWait

5000

获取连接超时时间(单位:ms)

timeBetweenEvictionRunsMillis

90000

连接有效性检测时间(单位:ms)

testOnBorrow 

false

获取连接检测

testOnReturn 

false

归还连接检测

minEvictableIdleTimeMillis

1800000

最大空闲时间(单位ms)

testWhileIdle

true

在获取连接后,确定是否要进行连接空间时间的检查

当然项目组要根据自己使用的连接池和实际情况进行压测后调整。

2、使用场景

我们要分析自己的场景是olap还是oltp,olap和oltp的区别是这样的,数据处理大致可以分成两大类:联机事务处理OLTP ( on-line transaction processing )、联机分析处理OLAP ( On-Line Analytical Processing )。两者的之间的比较如下:

OLTP系统最容易出现瓶颈的地方就是CPU与磁盘子系统。

(1)CPU出现瓶颈常表现在逻辑读总量与计算性函数或者是过程上,

逻辑读总量等于单个语句的逻辑读乘以执行次数,如果单个语句执行速度虽然很快,但是执行次数非常多,那么,也可能会导致很大的逻辑读总量。设计的方法与优化的方法就是减少单个语句的逻辑读,或者是减少它们的执行次数。

另外一些计算型的函数的频繁使用,也会消耗大量的CPU时间,造成系统的负载升高,正确的设计方法或者是优化方法,需要尽量避免计算过程,如保存计算结果到统计表就是一个好的方法。

(2)磁盘子系统在OLTP环境中,它的承载能力一般取决于它的IOPS处理能力. 因为在OLTP环境中,磁盘物理读一般都是db file sequential read,也就是单块读,但是这个读的次数非常频繁。如果频繁到磁盘子系统都不能承载其IOPS的时候,就会出现大的性能问题。

OLTP比较常用的设计与优化方式为Cache技术与B-tree索引技术,Cache决定了很多语句不需要从磁盘子系统获得数据,所以,这样数据库层面 cache与buffer对OLTP系统是很重要的。另外,在索引使用方面,语句越简单越好,这样执行计划也稳定,而且一定要使用绑定变量,减少语句解析,尽量减少表关联,尽量减少分布式事务。因为并发量很高,批量更新时要分批快速提交,以避免阻塞的发生。

OLAP这样的系统中,语句的执行量不是考核标准,因为一条语句的执行时间可能会非常长,读取的数据也非常多。所以,在这样的系统中,考核的标准往往是磁盘子系统的吞吐量(带宽),如能达到多少MB/s的流量。这类系统强调数据分析,强调SQL执行时长,强调磁盘I/O,强调分区等。

磁盘子系统的吞吐量则往往取决于磁盘的个数,这个时候,Cache基本是没有效果的,数据库的读写类型基本上是Db文件分散读取与直接路径读/写。应尽量采用个数比较多的磁盘以及比较大的带宽,如4Gb的光纤接口。

 分区技术在OLAP系统中的重要性主要体现在数据库管理上,删除数据可以通过分区进行删除,至于分区在性能上的影响,它可以使得一些大表的扫描变得很快(只扫描单个分区)。

 对于OLAP系统,在内存上可优化的余地很小,增加CPU 处理速度和磁盘I/O 速度是最直接的提高数据库性能的方法,当然这也意味着系统成本的增加。比如我们要对几亿条或者几十亿条数据进行聚合处理,这种海量的数据,全部放在内存中操作是很难的,同时也没有必要,因为这些数据快很少重用,缓存起来也没有实际意义,而且还会造成物理I/O相当大。所以这种系统的瓶颈往往是磁盘I/O上面的。

3、部署情况

确认自己的系统是独立部署还是混合部署来确定自己可以使用的硬件资源是否稳定。

以上就是我认识到的mysql优化的一些方面,要提高数据库的运行效率,从数据库系统级优化、数据库设计级优化、程序实现级优化,这三个层次上同时下功夫,而且以上总结的每项都有一些还顾忌不到的点,希望以后在遇到再补充。

4、InnoDB参数

再详细了解mysql这个软件的配置和InnoDB的一些配置,来进行优化提高性能

有参考:

面向程序员的数据库访问性能优化法则_oracle 多字段in 性能-CSDN博客

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/702751.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Linux环境安装ffmpeg6.x

1.官网ffmpeg下载源码 https://ffmpeg.org/download.html#build-windows 2.未安装x264库则先安装配置 可以先查询x264库: whereis libx264 安装编译工具和依赖库&#xff1a; sudo yum install gcc make cmake mercurial git yasm pkgconfig autoconf automake libtool sudo…

RabbitMQ 面试八股题整理

前言&#xff1a;本文是博主网络自行收集的一些RabbitMQ相关八股文&#xff0c;还在准备暑期实习&#xff0c;后续应该会持续更新...... 参考&#xff1a;三天吃透RabbitMQ面试八股文_牛客网 目录 RabbitMQ概述 什么是 RabbitMQ&#xff1f; 说一说RabbitMQ中的AMQP 为什么…

zabbix监控业务数据

前言 监控系统除了监控os和数据库性能相关的指标外&#xff0c;业务数据也是重点监控的对象。 一线驻场的运维同学应该深有体会&#xff0c;每天需要向甲方或者公司反馈现场的数据情况&#xff0c;正常情况下一天巡检两次&#xff0c;早上上班后和下午下班前各一次。监控项目…

【C语言】指针初阶

正文开始之前&#xff0c;我们要记住一个东西就是&#xff1a;地址指针 目录 一、指针的解释二、指针变量和地址1、取地址操作符2、指针变量和解引用操作1、指针变量2、拆解指针类型3、解引用操作符4、注意事项 3、指针变量的大小4、指针的解引用5、void*指针 三、指针的运算1、…

数据结构:链表的冒泡排序

法一&#xff1a;修改指针指向 //法二 void maopao_link(link_p H){if(HNULL){printf("头节点为空\n");return;}if(link_empty(H)){printf("链表为空\n");return;}link_p tailNULL;while(H->next->next!tail){link_p pH;link_p qH->next;while(q…

CUDA C:核函数、主机函数、设备函数

相关阅读 CUDA Chttps://blog.csdn.net/weixin_45791458/category_12530616.html?spm1001.2014.3001.5482 核函数(Kernel Function)指的是在主机(CPU)调用&#xff08;某些情况下也可以在设备调用&#xff09;&#xff0c;在设备(GPU)上执行的函数&#xff0c;使用__global__…

YOLOv8改进 | Conv篇 | 全新的SOATA轻量化下采样操作ADown(参数量下降百分之二十,附手撕结构图)

一、本文介绍 本文给大家带来的改进机制是利用2024/02/21号最新发布的YOLOv9其中提出的ADown模块来改进我们的Conv模块,其中YOLOv9针对于这个模块并没有介绍,只是在其项目文件中用到了,我将其整理出来用于我们的YOLOv8的项目,经过实验我发现该卷积模块(作为下采样模块)…

liunx前后端分离项目部署

文章目录 1、nginx的安装和自启动2.nginx负载均衡3.前后端项目部署-后端部署4.前后端项目部署-前端部署 1、nginx的安装和自启动 yum -y install gcc zlib zlib-devel pcre-devel openssl openssl-devel1.安装我们nginx所需要的依赖 wget http://nginx.org/download/nginx-1.…

Open3D 点云法向量计算与可视化 (25)

Open3D 点云法向量计算与可视化 (25) 一、算法原理二、算法实现三、可视化显示和长度调节一、算法原理 通常计算点云的法向量可以使用以下两种常见的方法: 最小二乘法(Least Squares Method):该方法通过拟合局部表面的平面来计算法向量。对于给定点周围的邻域,可以通过…

故障排除:Failed to load SQL Modules into database Cluster

PostgreSQL 安装和故障排除 重新安装前的准备工作 在重新安装 PostgreSQL 之前&#xff0c;确保完成以下步骤&#xff1a; 重新卸载 PostgreSQL 并重启电脑。 删除以下目录&#xff1a; C:\Program Files\PostgreSQL\13C:\Users\admin\AppData\Roaming\pgadmin 重启安装过…

【计算机网络】传输层——TCP和UDP详解

文章目录 一. TCP和UDP简介二. UDP 协议详解1. UDP报文格式2. UDP的使用场景 三. TCP 协议详解1. TCP报文格式2. TCP协议的重要机制确认应答&#xff08;保证可靠传输的最核心机制&#xff09;超时重传连接管理&#xff08;三次握手、四次挥手&#xff09;&#xff01;&#xf…

内网设备如何在互联网上能访问

应用场景 设备安装到了客户现场&#xff0c;如果要调试设备&#xff0c;当前的处理方式是技术人员出差到客户现场、让客户开通VPN、让客户安装远程工具&#xff0c;远程到客户计算机上进行调试等方法。人不在家里想远程家里的电脑&#xff0c;当前处理方式就是在家里电脑上安装…

【信息提取】FindSomething 浏览器插件

下载地址 FindSomething 浏览器插件 概述 在网页的源代码或js中找到一些有趣的东西 FindSomething 用于快速在网页的html源码或js代码中提取一些有趣的信息&#xff0c;包括可能请求的资源、接口的url&#xff0c;可能请求的ip和域名&#xff0c;泄漏的证件号、手机号、邮箱…

【Android12】Monkey压力测试源码执行流程分析

Monkey压力测试源码执行流程分析 Monkey是Android提供的用于应用程序自动化测试、压力测试的测试工具。 其源码路径(Android12)位于 /development/cmds/monkey/部署形式为Java Binary # development/cmds/monkey/Android.bp // Copyright 2008 The Android Open Source Proj…

Leetcoder Day21| 回溯理论基础+组合

语言&#xff1a;Java/Go 回溯理论基础 回溯函数也就是递归函数&#xff1b; 所有回溯法的问题都可以抽象为树形结构&#xff1b; 回溯法解决的都是在集合中递归查找子集&#xff0c;集合的大小就构成了树的宽度&#xff0c;递归的深度&#xff0c;都构成的树的深度。 适用的题…

深度学习基础(一)神经网络基本原理

之前的章节我们初步介绍了机器学习相关基础知识&#xff0c;目录如下&#xff1a; 机器学习基础&#xff08;一&#xff09;理解机器学习的本质-CSDN博客 机器学习基础&#xff08;二&#xff09;监督与非监督学习-CSDN博客 机器学习基础&#xff08;四&#xff09;非监督学…

深入理解计算机系统学习笔记

2.3整数运算 有时候会发现两个正数相加会得出一个负数&#xff0c;而比较表达式x<y和比较表达式x-y<0会产生不同的结果。这些属性是由于计算机运算的有限性造成的。理解计算机运算的细微之处能够帮助程序员编写更可靠的代码。 2 .3. 1 无符号加法 原理&#xff1a; 在正…

前端学习---- 前端HTML基本元素的介绍

一&#xff1a;显示相关的HTML基础知识 1. 推荐的前端编写工具 2. VScode的html速写规则&#xff08;从a标签开始再用&#xff09; ①、&#xff01;&#xff1a;代表生成html的基本框架元素 ②、html元素&#xff1a;直接书写html,不需要加<>,按回车会自动生成 ③、{}…

Java之线程池:线程池常用类、接口;线程池执行流程,配置参数,分类

线程池 什么是线程池&#xff1f; 线程池&#xff1a;一种基于池化思想管理和使用线程的机制 线程池常用类和接口 ExecutorService接口&#xff1a;进行线程池的操作访问Executors类&#xff1a;创建线程池的工具类ThreadPoolExecutor及其子类&#xff1a;封装线程池的核心参…

蓝桥杯备战刷题(自用)

1.被污染的支票 #include <iostream> #include <vector> #include <map> #include <algorithm> using namespace std; int main() {int n;cin>>n;vector<int>L;map<int,int>mp;bool ok0;int num;for(int i1;i<n;i){cin>>nu…