对误操作说“NO”,DevOps 三十六计之日常运维

社区广播:运维派(Yunweipai.com)是国内最早成立的IT运维社区,欢迎大家投稿,让运维人不再孤寂的成长!

DevOps

作者介绍:

梁定安
腾讯织云产品负责人,运营技术总监。十余年互联网运维从业经验,高效运维社区金牌讲师、复旦大学客座讲师、腾讯云布道师、DevOps专家。亲历企业的服务器规模从数十台到数万台的运维工作,对于构建自动化运维体系和监控质量体系有着丰富的理论与实践经验。目前专注于腾讯织云运维和DevOps解决方案的产品化输出。

综述
尽管每家企业的运维团队面临的挑战与困难都有所不同,但每个运维团队日常的工作内容是相似的。我们都要24小时待命,保障业务的质量稳定可靠;都要为每个业务运营活动,准备资源和发布变更;都要冲在业务前线,扑灭故障的火苗。

运维团队的使命就是为企业提供质量、效率、成本、安全的技术支持,为业务的健康发展保驾护航。

经常在一些新闻报道中,看到别人家的运维又因人为失误而踩坑背锅。如,某代码托管网站因为运维人员的失误,错删生产环境的数据库;某旅行网站的运维发布系统出错,导致业务中止营收受损。

这些案例都是对运维行业和运维专业度的伤害,我们在侥幸故障没有发生在自己身上的同时,更多的应该反思为何在运维技术快速发展的当下,不同的运维团队仍然在重复触犯着同样的失误,而这些失误仍然在反复的折磨着各色各样的企业。

日常运维三十六计是《DevOps三十六计》中的第一个计谋,编写该计策的初衷很简单,就是希望能为运维同行树立一些正确和恰当的日常运维操作守则,让广大运维同仁能够在工作中创造更大的价值,而不是把时间都浪费在不停的踩坑和填坑的工作上。

我们把日常运维工作分成计划内任务计划外任务,该计策源自我个人十余年的运维工作总结。主要目的是要沉淀出合适的实践经验和工作心得,指导各个运维团队建设工具或设计流程,有效的识别和规避风险。

相信计策中有大家耳熟能详的点子,但我恳请大家能耐心的读完,因为不断重复上演的运维事故一直在告诫我们,对重复、简单运维操作的轻视和疏忽是日常运维的大忌。

干一行,爱一行,既然选择了运维行业,我们就要发挥聪明才智来优化与提高它,熟读日常运维三十六计,对误操作说“NO”,让我们更好的应对计划内的运维任务,有更多时间和精力去应对计划外的任务,让运维的工作步入良性的循环。

DevOps 三十六计之日常运维:

日常运维

DevOps

第七计:灾难的紧急预案一定要有演练的机制,养兵千日用兵一时

2009年,腾讯大厦入伙,鹅厂在深圳终于拥有了属于自己的办公大楼,当大家都在庆祝乔迁之喜时,负责社交网络业务的小伙伴们,却在为一个幸福的烦恼而焦虑。

那时正值WEB2.0大潮,Qzone农牧场业务引爆了全民“偷菜”社交活动,网民的热情在服务的请求量上展露无遗,整个社交网络BU都在为这款火爆的产品忙得热火朝天。

产品团队在紧锣密鼓的推出新功能新特性吸引更多的用户,开发团队和运维团队都在夜以继日为业务提供技术支持。然而,当机房建设速度赶不上业务发展速度时,深圳IDC的规模已经容纳不下当时快速增值的社交和游戏业务。

就是在这样的大背景下,为了满足业务长远的规划与发展,腾讯社交网络业务正式启动走出深圳的项目,平台级业务(QQ、Qzone)开始架构的优化升级,从过去无明确规划的野蛮分布的生长模式,转为朝条带化、SET化的多地域多中心的异地多活架构模式的演进。

SET化是运维团队提出的一个很重要的概念,它代表着一个更为抽象的上层运维管理思想。

SET是提供特定功能场景的业务模块(业务模块是CMDB的管理概念,指提供单一功能服务的集群,对应着一批IP。)的合集,如Qzone的接入SET,我们将用户访问Qzone的首屏所有涉及的业务模块,包括接入层、逻辑层和存储层,都归类到Qzone的接入SET规划中。在同一个SET内业务模块需要保持分布的集中,模块之间的访问不产生IDC楼层之间的穿越流量。

同类SET之间保持服务的独立性,业务架构采取一写多读的架构,以此保证当容灾容错调度时,SET能作为最小的调度单元供运维操作。

每个SET的规模一般在不超过50个业务模块,且规模被控制在500台设备以内。关于SET概念,在规划和容灾场景下,为运维团队减少了运维对象,提升了决策的速度与调度的质量,是腾讯SNG运维团队应对突发故障屡试不爽的管理利器。

但在刚尝试引入SET概念时,SET的管理模式和运维团队、运维系统的磨合却是花了很长一段时间去磨合,腾讯SNG的SET管理方案也经历了几次迭代,最终才能成为很好服务于业务的法宝。这一切是依靠我们践行的运维方法“灾难的紧急预案一定要有演练的机制,养兵千日用兵一时”。

运维提出SET的管理概念的目的很清晰,就是为了分布与容灾。结合织云运维平台的SET管理,实现了“一天部署一个SET“和“一键上云”的运维效率,斩获两次公司级卓越运营奖。但是,当时在基于SET的容灾调度管理上,我们却未能这么顺利,因为摆在运维面前有几个问题还有待解决:

  • 调不调?

决策调度的核心指标太多,以哪个指标为准,在紧急故障发生时,这是个决策难题。必须事先准备好,最好是有且只有唯一一个决策的指标。

  • 调哪个?

业务峰值遇到专线容量不足,调度解决时,调走哪个SET的流量,释放多少专线容量,在紧急故障发生时,这是个决策难题。

  • 怎么调?

SET之间有依赖关系,从源头SET调度走还是从中间的故障SET调度走,在紧急故障发生时,这又是一个决策难题。最好有统一的决策方式,无论故障形式,统一从源头SET调度走。

  • 调多少?

调度操作时,要切走一定百分比的用户量,还是整个SET的用户量全部切走,目标SET的冗余容量是否充足,在紧急故障发生时,这是个决策难题,而且一旦决策失误容量引起SET雪崩。

  • 谁来调?

这是个背黑锅的话题,调度的成功率由诸多因素与工具环环相扣组成,如有疏漏很容易造成执行调度时出现异常或故障,倘若没有健全的策略保障,调度操作员的压力将是巨大的,以至于影响调度的决策和执行速度。

再长远的规划总是有时效性和局限性的,腾讯社交业务的SET规划也一样,我们通过坚持在业务高峰期反复的调度演练,克服了SET容灾调度规划中的弱点。

每次在业务高峰期演练结束后,我们都有对规划、系统、人员等因素的优化点,持续改进与打磨后,我们得出了最符合业务对质量与效率要求的SET架构与调度策略。

事后总结,这一切都是源于这条策略:“灾难的紧急预案一定要有演练的机制,养兵千日用兵一时”。我诚恳的建议各位运维同仁,纸上得来终觉浅,绝知此事要躬行。任何方案都要辅以不断的模拟演练,才能在千钧一发的瞬间发挥最大的效能。

第二十三计:每个偶然的故障背后都深藏着必然的联系,找到问题根源并优化掉

运维的日常工作时而杂乱时而繁琐,但如果我们能抽丝剥茧的看清运维工作的本质,在看似杂乱无章的工作中,会有很多共同之处,加以规划和处理,必定能对运维工作效率和质量有着事半功倍的成效。

在DevOps持续交付八大原则中,有一条原则是“提前并频繁地做让你感到痛苦的事情”,我们可以把运维的工作分成计划内任务和计划外任务两大类。计划内任务是指可预见的能否被提前防范,或者能够辅以工作高效处理好的工作;而计划外的任务则是指无法预见到,每次出现则要求运维人员紧急响应的救火工作。

七年前,负责系统运维的我接到一个专项优化任务,任务的目标是降低每位值班运维人员的电话量。这个任务对于团队和个人都是非常有意义的,如果目标达成,则意味着我们的电话告警量减少,运维人员的幸福指数增加,为此我义不容辞的接下了该任务。

当时,腾讯SNG的值班运维主要负责响应处理基础告警,包括设备ping不可达、agent上报超时、进程/端口不存在、硬盘容量满、硬盘只读、大范围网络故障,这几类告警。

与业务逻辑异常无关的告警由值班人员统一负责处理,为的是收敛入口可以集中优化,减少基础问题对更多人的骚扰。

对值班告警的优化过程,主要经历了三个阶段,我给大家还原下全过程:

  • 第一阶段,配置标准化与自愈

对于腾讯几万台服务器的运营规模而言,宕机的情况经常发生,那值班告警中,很大的告警占比都是由此问题引起的。而应对这类问题的共性做法,便是安全的重启设备或替换新设备,只要能保证自动化的操作不影响业务,就能做到故障自愈。

我们理清问题的脉络后,便着手推进运维标准化、配置化的落实,在CMDB中存储关键的业务配置信息,如架构层、响应级别、数据是否有状态等信息。通过工具流程来保障配置信息随着模块和设备的状态流转的及时更新。

配置标准化带来的直接的效果是,ping不可达、agent上报超时、硬盘只读,这三类直接可以通过重启解决的基础告警可以通过自动化的工具流程实现自愈。

  • 第二阶段,共性规则提炼

对于进程/端口不存在和硬盘空间满的基础告警,我们从运营数据观察得出,这类问题基本上会随着集群多次发生。如某个模块对应的集群有100台设备,其中有一台设备发生日志写满硬盘,则其他99台设备有很大的可能性也会发生日志写满硬盘的故障。

应对此有共性的基础告警,我们采用了以模块为管理节点,将硬盘清理策略的规则应用于模块对应集群的所有设备上,以此保证只要模块下有任何一台设备发生过硬盘容量满的告警,运维人员将清理策略配置在该模块的硬盘清理工具中,则可以免除该模块下其他设备的硬盘容量满的告警发生。

同理,这种共性规则提炼的方法也适用于进程/端口不存在的基础告警。

  • 第三阶段,关联分析与溯源

大范围网络故障多指一些核心交换机故障,或者某些机房掉电的网络故障场景。在面对这类故障时,因为网络层面的故障影响的下联设备众多,告警的表象多是告警不断,运维人员可谓苦不堪言。

通过CMDB对设备关联的网络设备与上联交换机信息的记录,我们在设计告警架构时,专门增加二级告警收敛模块,其主要的逻辑是对告警内容进行机房与网络设备的聚类收敛,如果有共性则收敛升级告警。以此实现减少告警发送量和告警量收敛的目的。

值班电话告警优化项目已经结束了很多年,目前我们已经实现基础告警90%以上的自愈处理,回想起当时项目的优化思路与执行过程,“每个偶然的故障背后都深藏着必然的联系,找到问题根源并优化掉”这条计策对于项目的顺利进行给予了很好的指导。

在日常的运维工作中,建议大家切勿因事小而不为之,充分结合运维场景积累的知识和技术,利用脉络思考的方法,顺藤摸瓜,找到故障背后的共同点或相似点,再把解决问题的方法上升提炼到更高的维度,说不定能收获事半功倍的成效。

第十一计:对不可逆的删除或修改操作,尽量延迟或慢速执行

“运维三板斧:重启、重装、回滚”,这是运维圈内流传的一个运维自嘲的段子,尽管是个段子,但是却道出了不少运维行业为了快速修复问题所采取的紧急措施。其中,回滚操作往往是应对变更操作后出现异常的有效恢复手段。

国内国外的互联网公司都出现过因为相关技术人员操作不当而引发的运营事故,而这些事故无法被快速修复的原因是因为变更无法被回滚。这些惨痛的案例一直在重演,如2017年3月gitlab的运维人员在多终端操作切换时,误把生产环境当成测试环境,人为失误的把生产环境的数据库删除。

虽然gitlab在遭遇重大事故时的公关处理得很从容优雅,公开致歉并且在线直播数据修复的全过程,赢得了大部分人的原谅,但是事故最终还是造成了700多个gitlab用户的数据丢失。

在鹅厂工作的近十年运维工作经历中,类似的低级人为失误并不少见,我们反思着这些故障的根源是因为我们技术太差吗?显然不是的,对于运维而言,我们最优先的职责是要保障业务的质量,然后在谋求更高的效率、更低的成本等。

运维是技术团队,但是光靠技术是无法解决所有难题,我们还需要有严格的记录与规则,正如《日常运维三十六计》中的计策:“对不可逆的删除或修改操作,尽量延迟或慢速执行”,这正是一条强调记录的计策。

因为不光是gitlab,在腾讯海量的运维工作中,我们为此也是付出过很多沉痛的故障代价才“悟出”这个道理。

在应用程序的生命周期中,伴随着业务的上线与下线,设备(物理机与虚拟机)会根据它所处于不同的生命周期阶段,被安装或卸载相关的应用程序和数据,以此达到资源有效流转的目的。

在这个设备上线与下线的过程,埋藏着很多引发故障的“坑”,稍不留意就容易触雷,操作人员又要背上黑锅。以腾讯的经验为例,在操作设备隔离下线时,容易产生的人为失误操作有:

删错程序、删错数据。工具跑得太过自信,执行太过迅速,但是执行的对象因为一时失误搞错,酿成操作事故。

复制错IP,搞错下线设备。复制粘贴可以提高效率,但是每次复制粘贴的内容是否足够准确,粘贴板中的内容真的是要操作下线IP吗?这又是一个故障频发的源头。

流量未切干净就下线服务。心存侥幸的操作,切换流量没有观察足够长的时间,便草草的下线服务或删除数据,这绝对是人为过失。

为了彻底的降低和优化这些删除或下线等不可逆操作潜在造成的风险,我们在运维工具中将运维的纪律与规则贯彻落地。以服务下线的工具流程为例(如下图),运维标准化的工作执行流程分成七个步骤:

  • 核实模块与IP。杜绝复制粘贴的失误,每次执行操作时必须校对模块与IP的对应关系,对设备IP的下线操作遵循模块权限的管理,基本上屏蔽了误操作的风险。
  • 名字服务下线。腾讯内部服务大量接入名字服务来实现负载均衡与高可用,下线操作流程会通过统一的接口层,在删除服务或设备前,集中批量的在名字服务下线,将流量切走。
  • 服务停止。停止进程和端口,以此检验服务流量是否完全切干净,如果仍有访问请求,则业务监控告警可以将其发现,下线流程将被中止。
  • iptables隔离。基于iptables的防火墙策略,隔离非运维管理端口以外的全部访问请求,保障该设备不对外提供任何服务,如有异常,则业务监控告警可以将其发现,下线流程将被中止。
  • 自动抓包观察。启动tcpdump自动抓包,找出非运维管理源IP以外的访问源,并加以分析,如果属于正常的业务访问请求,则下线流程将被暂停或中止。
  • 隔离周期。基于CMDB配置管理,对于不同模块、不同架构层、不同服务等级的设备下线,隔离周期区别对待:快速下线隔离2天、普通下线隔离7天、数据库下线隔离1个月等。
  • 重装/销毁。下线的最后步骤,由工具自动化重装操作系统或虚拟化销毁。

上述腾讯运维的案例,是希望传递一个道理,运维工作中有很多高危的、不可逆的操作,这些操作需要技术与纪律同时保障,我们的工作才能进入良性循环,越来越好。

原文来自微信公众号:高效运维

网友评论comments

发表评论

电子邮件地址不会被公开。 必填项已用*标注

暂无评论

Copyright © 2012-2017 YUNWEIPAI.COM - 运维派 - 粤ICP备14090526号-3
扫二维码
扫二维码
返回顶部