天!转转MySQL机房迁移半小时结束战斗?
来源:51cto
时间:2023-02-22 14:27:34 196浏览 收藏
IT行业相对于一般传统行业,发展更新速度更快,一旦停止了学习,很快就会被行业所淘汰。所以我们需要踏踏实实的不断学习,精进自己的技术,尤其是初学者。今天golang学习网给大家整理了《天!转转MySQL机房迁移半小时结束战斗?》,聊聊MySQL、机房,我们一起来看看吧!
1 背景
作为国内领先的循环经济产业公司,随着转转业务的不断发展,基础服务设施已然到了“蜕壳”的阶段。
目前在用的IDC资源已趋于饱和,难以满足后续的发展需求。
同时,随着腾讯云提供的负载均衡技术迭代,需要将TGW(Tencent GateWay)替换为CLB(Cloud Load Balancer)。
经过运维同学近半年时间的筹划和建设,全新IDC和负载均衡技术(CLB)已完成升级建设并正式投产,MySQL、TiDB、Redis等公共基础服务需要有序进行迁移切换。对于MySQL迁移工作,面临集群数量多、操作影响大、操作要求高等一系列难题,需要充分调研现状并制定合理的方案,进一步降低对业务服务的感知。
2 迁移方案选择
2.1 方案一:扩容+主从切换
通过备份扩容出足够数量的从库,再依赖MHA(Master High Availability)系统发起主动切换,最终下线旧节点完成集群拓扑变更。

2.2 方案二:级联切换
通过备份搭建级联集群,完成新集群数据同步,再通过断级联+域名切换的方式完成集群变更。

2.3 方案对比
- 方案一:开发量小,扩容和MHA切换都比较容易实现。但单个集群MHA切换时间>30s,对业务的影响时间过长,且机房迁移要求具备大规模切换能力,这就对MHA系统要求极高,就算是大厂自行维护的高可用系统,恐怕也难以保证在短时间内依靠高可用系统完成百余套集群的无损切换。
- 方案二:原理简单,切换速度快,单个集群切换时间,对业务影响小。但需要大量自动化开发,例如自动扩容、自动搭建级联集群、自动前/后置检查、自动切换读/写流量等,开发成本高。
落地方案的选定,重点考虑对业务的影响,哪种方案又快又稳对业务感知又小就选哪种,毫无疑问,方案二胜出。级联方案还有一个明显优势,新集群搭建过程中可以平滑升级负载均衡(CLB替换TGW)
- 级联读流量切换示意图
- 级联写流量切换示意图
3 如何又快又稳完成MySQL机房迁移
MySQL集群迁移切换的风险非常大,稍加操作不当就可导致整套集群不可用,极端情况下可能直接让线上服务停摆。转转线上MySQL集群数量较多,如何又快又稳完成MySQL机房迁移工作?
3.1 提前搭建级联
通过备份扩容新集群,并与老集群建立级联关系,提前搭建好所有待迁移集群级联。由于转转采用单机多实例部署的架构,新建集群时得重点考虑混合部署带来的问题,需要提前整理各集群单实例磁盘、内存占用数据。在开发自动搭建级联集群脚本时,需要同时兼顾机器负载均衡和资源成本。
限制逻辑:
- 单机主库实例不超过5个
- 单机从库实例不超过10个
- 单机总实例不超过15个
- 单机内存、磁盘使用率不超过85%
级联搭建过程:

3.2 停服
核心集群间的上下游关系错综复杂,尤其是交易库和商品库。如果停写一套集群,其他好几套关联集群也会受影响。另外,尽管当前部分业务方具备双写能力,能够应对切换停写带来的影响,但集群数量太多,并非所有业务都有足够人力成本投入额外开发。综合考虑,与其花费大量人工成本去梳理上下游关系和额外开发,不如在凌晨低峰期短暂停服,批量切换核心集群。这项决定意味着我们需要具备过硬的批量操作和恢复能力,务必将操作时间进一步缩短,给测试、开发留足验证时间,尽量减少停服时长。

3.3 批量操作自动化,关键步骤解耦
整个迁移周期内存在大量操作,需要降低人工误操作风险,同时对操作时间也有一定要求,因此,所有操作都需要实现自动化。对于关键步骤应当解耦处理,自动化模块需要能够独立运行,所有模块相互间形成闭环,当切换存在问题时能快速定位故障发生位置,及时回滚。在闭环中实现:
- 搭建级联集群自动化
- 前/后置检查自动化
- 批量切读
- 批量切写
- 自动kill旧集群连接,检测切换后新集群连接
- 批量下线旧集群
3.4 集群分级
我们将线上集群分为3个等级,由高到低依次为P1、P2、P3,各等级占比约为1:1:1
- P3集群可在白天任意时间切换
- P2集群可在晚上8点-10点操作
- P1集群需要在凌晨停服期间操作
我们正不断推进和完善集群服务分级管理,对于达到一定规模符合等级要求的集群,我们将投入更多精力、提供更多的资源去支撑高等级集群的可靠性及性能。
3.5 切换前、后置检查
整个切换周期内,新、老集群的前、后置检查必不可少。切换前后配置不一致可能引发故障,尤其是一些关键参数配置。
前置检查:
- 新集群vip-rshost链路连通性
- buffer_pool_size
- sql_mode
- 从节点个数
- 级联延迟
- ...
后置检查:
- 新、老主read_only状态
- 新、老集群业务实时连接
- 域名切换后是否指向新集群
- ...
3.6 灰度切换验证
完成各项自动化代码开发后,先通过测试集群进行多轮批量切换验证,随后按照集群等级开始线上集群切换。对于P3集群,由于切换操作对业务的影响较小,但又不同于测试集群,P3切换过程中能够反馈线上大部分集群可能遇到的问题。采用灰度切换验证,摸着石头过河,把意料之外的浑水都淌一遍,不断迭代自动化脚本。
灰度切换顺序:
- 单套切换
- 小批量切换(
- 大批量切换(>30)
灰度切换验证期间遇到的问题:
- 多域名问题
按标准化运维,同一集群同一角色有且仅有一个域名,但线上集群存在一套集群使用多个主库、从库域名的情况。在流量切换时,需要兼容处理多域名问题
- cmdb信息不准确
部分老集群元数据长时间未维护,实例信息、域名指向信息可能有误。在迁移切换前,需要花精力去校对最新数据
4 写在最后
转转线上MySQL集群规模400+,需要在9月27日凌晨停服期间完成所有集群切换。P3、P2集群在停服前已完成批量切换,剩余P1核心集群累计100+,平均耗时10s/套,半小时内结束战斗。停服期间因前期已规避大部分问题,切换过程非常流畅,后续的验证、压测也均符合预期。

关于作者
黄建波,转转DBA。主要负责转转MySQL运维及数据库平台开发。
好了,本文到此结束,带大家了解了《天!转转MySQL机房迁移半小时结束战斗?》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多数据库知识!
-
499 收藏
-
244 收藏
-
235 收藏
-
157 收藏
-
101 收藏
-
188 收藏
-
404 收藏
-
101 收藏
-
265 收藏
-
209 收藏
-
446 收藏
-
339 收藏
-
285 收藏
-
259 收藏
-
374 收藏
-
475 收藏
-
483 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习
-
- 细心的红酒
- 细节满满,已收藏,感谢师傅的这篇技术贴,我会继续支持!
- 2023-06-01 17:24:43
-
- 霸气的毛豆
- 受益颇多,一直没懂这个问题,但其实工作中常常有遇到...不过今天到这,帮助很大,总算是懂了,感谢楼主分享技术文章!
- 2023-05-18 07:13:03
-
- 发嗲的咖啡
- 这篇博文出现的刚刚好,老哥加油!
- 2023-04-17 06:26:41
-
- user_1678689486
- 太细致了,码住,感谢楼主的这篇文章内容,我会继续支持!
- 2023-03-14 16:04:57
-
- 危机的河马
- 感谢大佬分享,一直没懂这个问题,但其实工作中常常有遇到...不过今天到这,帮助很大,总算是懂了,感谢老哥分享文章!
- 2023-03-12 00:33:38
-
- 聪慧的飞机
- 这篇技术文章太及时了,太全面了,很有用,码住,关注老哥了!希望老哥能多写数据库相关的文章。
- 2023-03-03 22:16:32
-
- 聪慧的飞机
- 这篇技术文章太及时了,太详细了,太给力了,收藏了,关注up主了!希望up主能多写数据库相关的文章。
- 2023-02-22 16:11:35