登录
首页 >  数据库 >  MySQL

PHP+Mysql高并发解决

来源:SegmentFault

时间:2023-02-24 19:44:17 341浏览 收藏

知识点掌握了,还需要不断练习才能熟练运用。下面golang学习网给大家带来一个数据库开发实战,手把手教大家学习《PHP+Mysql高并发解决》,在实现功能的过程中也带大家重新温习相关知识点,温故而知新,回头看看说不定又有不一样的感悟!

在项目中,经常都会遇到高并发问题,如在某个时间点有100个人对同一数据进行更改,这样就会产生问题,最后导致的数据会不准确,通常的解决高并发的方法有读取数据时加缓存,写入数据时添加到队列,下面罗列一些处理高并发的常见方法供大家参考。

一、MySQL批量插入优化

对于一些数据量较大的系统,数据库面临的问题除了查询效率低下,还有就是数据入库时间长。特别像报表系统,每天花费在数据导入上的时间可能会长达几个小时或十几个小时之久。因此,优化数据库插入性能是很有意义的。
经过对MySQL innodb的一些性能测试,发现一些可以提高insert效率的方法,供大家参考参考。

  1. 一条SQL语句插入多条数据。
    常用的插入语句如:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('1', 'userid_1', 'content_1', 1);

修改成:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('0', 'userid_0', 'content_0', 0), ('1', 'userid_1', 'content_1', 1);

修改后的插入操作能够提高程序的插入效率。这里第二种SQL执行效率高的主要原因是合并后日志量(MySQL的binlog和innodb的事务让日志)减少了,降低日志刷盘的数据量和频率,从而提高效率。通过合并SQL语句,同时也能减少SQL语句解析的次数,减少网络传输的IO。
这里提供一些测试对比数据,分别是进行单条数据的导入与转化成一条SQL语句进行导入,分别测试1百、1千、1万条数据记录。

clipboard.png

还可以在事务中进行插入处理。
更多详情,请看原文章:MySQL批量SQL插入性能优化


相关文章:
【高并发简单解决方案】redis队列缓存 + mysql 批量入库 + php离线整合
秒杀活动设计方案

好了,本文到此结束,带大家了解了《PHP+Mysql高并发解决》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多数据库知识!

声明:本文转载于:SegmentFault 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>
评论列表