一次插入数据和批量插入数据
insert into tb_test (id, name) values (1,'Tom'); insert into tb_test (id, name) values (1,'Tom'),(2,'Jack'),(3,'Jerry');
手动控制事务,且按主键顺序插入。
start transaction; insert into tb_test (id, name) values (1,'Tom'),(2,'Jack'),(3,'Jerry'); commit;
如果一次性需要插入大批量数据(比如: 几百万的记录),使用insert语句插入性能较低,此时可以使
用MySQL数据库提供的load指令进行插入。操作如下:
-- 客户端连接服务端时,加上参数 -–local-infile mysql –-local-infile -u root -p -- 设置全局参数local_infile为1,开启从本地加载文件导入数据的开关 set global local_infile = 1; -- 执行load指令将准备好的数据,加载到表结构中 load data local infile '/root/xxxsql.sql' into table tb_user fields terminated by ',' lines terminated by '\n' ;
主键顺序插入性能高于乱序插入
在插入数据时,主键顺序插入性能高于乱序插入。
分析:
在InnoDB存储引擎中,表数据都是根据主键顺序组织存放的。这种存储方式的表称为索引组织表(index organized table IOT)。
InnoDB存储引擎的逻辑结构如下图。
在InnoDB引擎中,数据行是记录在逻辑结构 page 页中的,而每一个页的大小是固定的,默认16K。那也就意味着, 一个页中所存储的行也是有限的,如果插入的数据行row在该页存储不小,将会存储到下一个页中,页与页之间会通过指针连接(双链表)。
页分裂
页可以为空,也可以填充一半,也可以填充100%。每个页包含了2-N行数据(如果一行数据过大,会行溢出),根据主键排列。
页合并
在数据量比较大时,如果进行limit分页查询,在查询时,越往后,分页查询效率越低。
例如select * from tb_user limit 9000000,10;
优化思路: 一般分页查询时,通过创建 覆盖索引 能够比较好地提高性能,可以通过覆盖索引加子查
询形式进行优化。
例如:
explain select * from tb_sku t , (select id from tb_sku order by id limit 2000000,10) a where t.id = a.id;
count() 是一个聚合函数,对于返回的结果集,一行行地判断,如果 count 函数的参数不是NULL,累计值就加 1,否则不加,最后返回累计值。
用法:count(*)、count(主键)、count(字段)、count(数字)
count用法 | 含义 |
---|---|
count(主键) | InnoDB 引擎会遍历整张表,把每一行的 主键id 值都取出来,返回给服务层。服务层拿到主键后,直接按行进行累加(主键不可能为null) |
count(字段) | 没有not null 约束 : InnoDB 引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,服务层判断是否为null,不为null,计数累加。有not null 约束:InnoDB 引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,直接按行进行累加。 |
count(数字) | InnoDB 引擎遍历整张表,但不取值。服务层对于返回的每一行,放一个数字“1”进去,直接按行进行累加。 |
count(*) | InnoDB引擎并不会把全部字段取出来,而是专门做了优化,不取值,服务层直接按行进行累加。 |
在MySQL的默认引擎中,InnoDB会在使用 update 操作时,加锁。
如果是按照索引的字段update,会加行锁,否则加表锁。
例如一张表中的id是主键,name是属性值。
update tb_user set name = 'zhangsan' where id = 1 ,上的是行锁,其他用户可以对当前tb_user表中的其他行数据进行update修改,但如果是按照非索引字段修改update tb_user set name = 'lisi' where name = 'zhangsan',上的是表锁,其他用户无法更改当前表的任何数据,直到得到表锁的事务提交。
InnoDB的行锁是针对索引加的锁,不是针对记录加的锁 ,并且该索引不能失效,否则会从行锁升级为表锁 。