mysql数据库如何优化,优化了哪些功能
1、配置优化
配置的优化其实包含两个方面的:操作系统内核的优化和mysql配置文件的优化
1)系统内核的优化对专用的mysql服务器来说,无非是内存实用、连接数、超时处理、TCP处理等方面的优化,根据自己的硬件配置来进行优化,这里不多讲;
2)mysql配置的优化,一般来说包含:IO处理的常用参数、最大连接数设置、缓存使用参数的设置、慢日志的参数的设置、innodb相关参数的设置等,如果有主从关系在设置主从同步的相关参数即可,网上的相关配置文件很多,大同小异,常用的设置大多修改这些差不多就够用了。
2、sql语句的优化
1、 尽量稍作计算
Mysql的作用是用来存取数据的,不是做计算的,做计算的话可以用其他方法去实现,mysql做计算是很耗资源的。
2.尽量少 join
MySQL 的优势在于简单,但这在某些方面其实也是其劣势。MySQL 优化器效率高,但是由于其统计信息的量有限,优化器工作过程出现偏差的可能性也就更多。对于复杂的多表 Join,一方面由于其优化器受限,再者在 Join 这方面所下的功夫还不够,所以性能表现离 Oracle 等关系型数据库前辈还是有一定距离。但如果是简单的单表查询,这一差距就会极小甚至在有些场景下要优于这些数据库前辈。
3.尽量少排序
排序操作会消耗较多的 CPU 资源,所以减少排序可以在缓存命中率高等 IO 能力足够的场景下会较大影响 SQL的响应时间。
对于MySQL来说,减少排序有多种办法,比如:
通过利用索引来排序的方式进行优化
减少参与排序的记录条数
非必要不对数据进行排序
2024-08-23 广告
一、数据库设计方面
合理设计表结构:
选择合适的数据类型,避免使用过大或不必要的数据类型。例如,对于整数类型,根据实际需求选择 tinyint、smallint、int 或 bigint 等。对于字符串类型,如果长度可以确定,尽量使用 char 类型而不是 varchar,因为 char 类型在存储和检索时效率更高。
规范化与反规范化的平衡。适度的规范化可以减少数据冗余,但过度规范化可能导致复杂的连接操作,降低查询性能。在某些情况下,可以适当进行反规范化,例如通过冗余存储一些常用的关联数据,减少连接操作。
建立合适的索引:
选择合适的列建立索引,通常是在经常用于查询条件、排序、分组的列上建立索引。例如,如果经常根据用户的 ID 进行查询,那么在用户表的 ID 列上建立索引可以大大提高查询速度。
避免过多的索引,因为每个索引都需要占用存储空间,并且在数据插入、更新和删除时会增加额外的开销。只在真正需要的列上建立索引,并且定期检查和优化索引的使用情况。
优化查询条件:
尽量避免在查询条件中使用函数或表达式,因为这会导致数据库无法使用索引。例如,不要使用 WHERE DATE(column_name) = '2024-10-15',而应该使用 WHERE column_name >= '2024-10-15 00:00:00' AND column_name <= '2024-10-15 23:59:59',这样数据库可以利用索引进行快速查询。
使用合适的比较运算符,例如在数值比较时使用 =、<、> 等,在字符串比较时使用 LIKE 要注意避免在开头使用通配符 %,因为这会导致全表扫描。
限制返回结果集:
使用 LIMIT 语句限制返回的行数,避免查询不必要的大量数据。如果只需要查看前几条记录,可以使用 LIMIT n;如果需要分页查询,可以使用 LIMIT offset, n,其中 offset 表示起始位置,n 表示返回的行数。
只选择需要的列,避免使用 SELECT *,这样可以减少数据传输量和查询时间。
调整缓存设置:
合理设置缓冲池大小,缓冲池用于缓存数据页和索引页,提高数据的读取速度。可以根据服务器的内存大小和数据库的负载情况进行调整。
调整查询缓存,查询缓存可以缓存查询结果,对于相同的查询可以直接返回缓存结果,提高查询性能。但是,如果表经常被更新,查询缓存可能会带来额外的开销,此时可以考虑关闭查询缓存。
优化存储引擎参数:
如果使用 InnoDB 存储引擎,可以调整 innodb_buffer_pool_size、innodb_flush_log_at_trx_commit 等参数,以提高数据库的性能和可靠性。
根据实际情况调整存储引擎的其他参数,如 MyISAM 存储引擎的 key_buffer_size 等。
增加内存:
足够的内存可以让数据库缓存更多的数据和索引,减少磁盘 I/O 操作,提高查询性能。可以根据数据库的负载情况和服务器的硬件配置,适当增加服务器的内存容量。
使用固态硬盘:
固态硬盘具有更快的读写速度,可以大大提高数据库的磁盘 I/O 性能。如果条件允许,可以将数据库存储在固态硬盘上。
优化服务器配置:
合理分配服务器的资源,避免其他应用程序占用过多的资源,影响数据库的性能。可以调整服务器的内核参数、网络参数等,以提高数据库的性能。
分析查询执行计划:
使用 EXPLAIN 语句分析查询的执行计划,了解数据库是如何执行查询的,找出潜在的性能问题。例如,可以查看是否使用了索引、是否进行了全表扫描等。
根据执行计划的分析结果,对查询进行优化,调整索引、查询条件等,以提高查询性能。
定期清理数据和优化表:
定期清理不再需要的数据,减少数据库的大小,提高查询性能。可以使用 DELETE 语句删除过期的数据,或者使用归档策略将历史数据转移到其他存储设备上。
定期使用 OPTIMIZE TABLE 语句优化表结构,消除表中的碎片,提高表的访问速度。
二、查询语句优化方面
三、数据库配置方面
四、服务器硬件和环境方面
五、定期维护方面
通过以上方法,可以有效地优化 MySQL 数据库的查询性能,提高数据库的响应速度和吞吐量。
2020-06-03 · MySQL开源数据库领先者
在开始演示之前,我们先介绍下两个概念。
概念一,数据的可选择性基数,也就是常说的cardinality值。
查询优化器在生成各种执行计划之前,得先从统计信息中取得相关数据,这样才能估算每步操作所涉及到的记录数,而这个相关数据就是cardinality。简单来说,就是每个值在每个字段中的唯一值分布状态。
比如表t1有100行记录,其中一列为f1。f1中唯一值的个数可以是100个,也可以是1个,当然也可以是1到100之间的任何一个数字。这里唯一值越的多少,就是这个列的可选择基数。
那看到这里我们就明白了,为什么要在基数高的字段上建立索引,而基数低的的字段建立索引反而没有全表扫描来的快。当然这个只是一方面,至于更深入的探讨就不在我这篇探讨的范围了。
概念二,关于HINT的使用。
这里我来说下HINT是什么,在什么时候用。
HINT简单来说就是在某些特定的场景下人工协助MySQL优化器的工作,使她生成最优的执行计划。一般来说,优化器的执行计划都是最优化的,不过在某些特定场景下,执行计划可能不是最优化。
比如:表t1经过大量的频繁更新操作,(UPDATE,DELETE,INSERT),cardinality已经很不准确了,这时候刚好执行了一条SQL,那么有可能这条SQL的执行计划就不是最优的。为什么说有可能呢?
来看下具体演示
譬如,以下两条SQL,
A:
- select * from t1 where f1 = 20;
B:
- select * from t1 where f1 = 30;
- mysql> desc t1;+------------+--------------+------+-----+---------+----------------+| Field | Type | Null | Key | Default | Extra |+------------+--------------+------+-----+---------+----------------+| id | int(11) | NO | PRI | NULL | auto_increment || rank1 | int(11) | YES | MUL | NULL | || rank2 | int(11) | YES | MUL | NULL | || log_time | datetime | YES | MUL | NULL | || prefix_uid | varchar(100) | YES | | NULL | || desc1 | text | YES | | NULL | || rank3 | int(11) | YES | MUL | NULL | |+------------+--------------+------+-----+---------+----------------+7 rows in set (0.00 sec)
- mysql> select count(*) from t1;+----------+| count(*) |+----------+| 32768 |+----------+1 row in set (0.01 sec)
SQL C:
- select * from t1 where rank1 = 1 or rank2 = 2 or rank3 = 2;
SQL D:
- select * from t1 where rank1 =100 and rank2 =100 and rank3 =100;
- mysql> explain format=json select * from t1 where rank1 =1 or rank2 = 2 or rank3 = 2\G*************************** 1. row ***************************EXPLAIN: { "query_block": { "select_id": 1, "cost_info": { "query_cost": "3243.65" }, "table": { "table_name": "t1", "access_type": "ALL", "possible_keys": [ "idx_rank1", "idx_rank2", "idx_rank3" ], "rows_examined_per_scan": 32034, "rows_produced_per_join": 115, "filtered": "0.36", "cost_info": { "read_cost": "3232.07", "eval_cost": "11.58", "prefix_cost": "3243.65", "data_read_per_join": "49K" }, "used_columns": [ "id", "rank1", "rank2", "log_time", "prefix_uid", "desc1", "rank3" ], "attached_condition": "((`ytt`.`t1`.`rank1` = 1) or (`ytt`.`t1`.`rank2` = 2) or (`ytt`.`t1`.`rank3` = 2))" } }}1 row in set, 1 warning (0.00 sec)
- mysql> explain format=json select /*+ index_merge(t1) */ * from t1 where rank1 =1 or rank2 = 2 or rank3 = 2\G*************************** 1. row ***************************EXPLAIN: { "query_block": { "select_id": 1, "cost_info": { "query_cost": "441.09" }, "table": { "table_name": "t1", "access_type": "index_merge", "possible_keys": [ "idx_rank1", "idx_rank2", "idx_rank3" ], "key": "union(idx_rank1,idx_rank2,idx_rank3)", "key_length": "5,5,5", "rows_examined_per_scan": 1103, "rows_produced_per_join": 1103, "filtered": "100.00", "cost_info": { "read_cost": "330.79", "eval_cost": "110.30", "prefix_cost": "441.09", "data_read_per_join": "473K" }, "used_columns": [ "id", "rank1", "rank2", "log_time", "prefix_uid", "desc1", "rank3" ], "attached_condition": "((`ytt`.`t1`.`rank1` = 1) or (`ytt`.`t1`.`rank2` = 2) or (`ytt`.`t1`.`rank3` = 2))" } }}1 row in set, 1 warning (0.00 sec)
不加HINT,
- mysql> explain format=json select * from t1 where rank1 =100 and rank2 =100 and rank3 =100\G*************************** 1. row ***************************EXPLAIN: { "query_block": { "select_id": 1, "cost_info": { "query_cost": "534.34" }, "table": { "table_name": "t1", "access_type": "ref", "possible_keys": [ "idx_rank1", "idx_rank2", "idx_rank3" ], "key": "idx_rank1", "used_key_parts": [ "rank1" ], "key_length": "5", "ref": [ "const" ], "rows_examined_per_scan": 555, "rows_produced_per_join": 0, "filtered": "0.07", "cost_info": { "read_cost": "478.84", "eval_cost": "0.04", "prefix_cost": "534.34", "data_read_per_join": "176" }, "used_columns": [ "id", "rank1", "rank2", "log_time", "prefix_uid", "desc1", "rank3" ], "attached_condition": "((`ytt`.`t1`.`rank3` = 100) and (`ytt`.`t1`.`rank2` = 100))" } }}1 row in set, 1 warning (0.00 sec)
加了HINT,
- mysql> explain format=json select /*+ index_merge(t1)*/ * from t1 where rank1 =100 and rank2 =100 and rank3 =100\G*************************** 1. row ***************************EXPLAIN: { "query_block": { "select_id": 1, "cost_info": { "query_cost": "5.23" }, "table": { "table_name": "t1", "access_type": "index_merge", "possible_keys": [ "idx_rank1", "idx_rank2", "idx_rank3" ], "key": "intersect(idx_rank1,idx_rank2,idx_rank3)", "key_length": "5,5,5", "rows_examined_per_scan": 1, "rows_produced_per_join": 1, "filtered": "100.00", "cost_info": { "read_cost": "5.13", "eval_cost": "0.10", "prefix_cost": "5.23", "data_read_per_join": "440" }, "used_columns": [ "id", "rank1", "rank2", "log_time", "prefix_uid", "desc1", "rank3" ], "attached_condition": "((`ytt`.`t1`.`rank3` = 100) and (`ytt`.`t1`.`rank2` = 100) and (`ytt`.`t1`.`rank1` = 100))" } }}1 row in set, 1 warning (0.00 sec)
如果f1的值刚好频繁更新的值为30,并且没有达到MySQL自动更新cardinality值的临界值或者说用户设置了手动更新又或者用户减少了sample page等等,那么对这两条语句来说,可能不准确的就是B了。
这里顺带说下,MySQL提供了自动更新和手动更新表cardinality值的方法,因篇幅有限,需要的可以查阅手册。
那回到正题上,MySQL 8.0 带来了几个HINT,我今天就举个index_merge的例子。
示例表结构:
表记录数:
这里我们两条经典的SQL:
表t1实际上在rank1,rank2,rank3三列上分别有一个二级索引。
那我们来看SQL C的查询计划。
显然,没有用到任何索引,扫描的行数为32034,cost为3243.65。
我们加上hint给相同的查询,再次看看查询计划。
这个时候用到了index_merge,union了三个列。扫描的行数为1103,cost为441.09,明显比之前的快了好几倍。
我们再看下SQL D的计划:
对比下以上两个,加了HINT的比不加HINT的cost小了100倍。
总结下,就是说表的cardinality值影响这张的查询计划,如果这个值没有正常更新的话,就需要手工加HINT了。相信MySQL未来的版本会带来更多的HINT。
广告 您可能关注的内容 |