《DevOps 能力模型、演进及案例剖析》要点:
本文介绍了DevOps 能力模型、演进及案例剖析,希望对您有用。如果有疑问,可以联系我们。
作者介绍
王晓伟
2009年创办麦图科技,专注于电商行业的垂直搜索, 受到多家天使、Pre-A投资机构的关注.
有10+年互联网、游戏、内核安全从业经验.历任软件工程师、高级软件工程师、技术经理和总监.
目前主要从事手机游戏发行平台的构建,推进公司DevOps的培养和运维自动化的实施.
本次分享主要分为两部分:
部分内容可能形而上学,所以带好枕头被褥,困了就眯一会儿,后面有点小精彩.
运维工作是实践性的学科和工作,即便没有高深的理论也可以开展工作,继而从事这个工作的朋友不缺乏实际动手的能力.
但从事物的发展规律性和普遍性来看,从实践出发的Ops恰恰缺乏必要的理论指导和思想探究.
本文是我对运维工作的理论、思考和定义的总结,同时给出DevOps相关概念的定义,明确其工作范畴,能力要求,产出标准以及演进建议.一家之言尚未完善,抛砖引玉,欢迎讨论.
问:如何通过Python或者Shell给Nginx添加/删除一个虚拟站点?
答:通过Python或者Shell在nginx.conf里添加server区块,然后如何如何……
问:如何使用Python将文本日志结构化
答:通过python的os.system调用awk.(哭,韩国的整容术用到运维上了,给awk整成python……)
这是最近真实的面试案例.上述两个问题的回答,让我很不开心:
从案例里我总结了两个核心的定义:工程能力和架构能力.下面先给出这两个定义.
工程能力当然是运维工!程!师所必需具备的.我对工程能力的定义是:
架构能力,本人解释为:
比如程序猿懂了业务,想了部署,做了高可用的规划应该算得上架构狮了.
针对问题1的分解逻辑如下:
有些操作是高危操作或者是不可逆的,比如修改sudoers文件.在基于sudo管理的系统下,如果一旦sudoers被改坏是灾难性的.因此定义执行序列是:
系统的管理和系统的状态的获取是两个不同方向的工作:
管理是把指令传递给系统,修改系统的状态和信息;查看系统的状态是从系统获取信息.
这两个不同向的操作行为就导致了状态和信息同步的问题.解决这个问题的方法有很多,但是稳定可靠,兼容性好的方法不多,我的方法是保证操作的可重入性.
即在同等的条件下,对于系统发出的指令,执行n+1次(n>0)的效果是相同的.
这样,即便我可能知道系统状态和信息是不一致的,但是由于操作行为是可重入的,我可以最终把状态和信息一致化.
以上展开了工程能力的解释.
由于架构能力涉及面广,交叉学科众多,此处暂不作展开说明.
我们先介绍相关能力模型:操作系统能力模型和应用系统能力模型,然后再由此引出DevOps能力模型.
除操作系统核心提供的基本功能外,还给我们提供了以下功能(以Linux为例):
除操作系统能力模型提供的功能之外,还给我们提供了以下功能:
由此,我们给出DevOps能力模型的定义:
符合DevOps能力模型1:为初级DevOps,可以使用shell做DevOps的一般性系统级别的工作,在一些第三方工具(Ansible/Fabric)的帮助下管理大量服务器;
符合DevOps能力模型2:为中级DevOps,可以使用shell做DevOps的应用系统的部署和优化工作,并能通过其产出的脚本大批量管理应用系统
符合DevOps能力模型3:为高级DevOps,可以使用shell和通用语言进行广泛的DevOps的工作,可以完成完整的业务流程的定义和开发,能够熟练抽象并编写供其他DevOps使用的接口.
符合DevOps能力模型4:为架构师级别的DevOps,根据业务需求,规划系统部署架构;根据业务指标要求优化部署结构和性能,保证高可用等;定义脚本代码接口,制定开发规范和操作规范.
理论的东西说完了,下面是探讨下Dev和Ops的现状,Ops的演进,Dev的演进以及三项补充内容.
Dev和Ops是实践性的工作,因此即便不是一名DevOps,或许你也在做着Dev或者Ops的工作.只是这不是真正的DevOps.让我们看两个场景:
这是我以前的工作中遇到的真实情况.
现在情况变了,自从Dev和Ops弄在一起变成DevOps后,又出现了几个自动化工具,搞的现在Dev不好好写代码了,Ops也不好好的写命令行,都去学习自动化工具去了.
这不是DevOps的王道.这是错误的.
即便把所有的自动化工具,不管是Ansible还是Puppet或者其他学的再熟,也只是学会了一个工具而已,很可能DevOps没当成,却变成工具的奴隶.
DevOps是先有思想,而后有工具.
现在崇尚工具的思路是非常可怕的,很多初学者误以为学会了这些自动化工具就可以把运维做好,而忽视基本功的学习,空学工具,只重其招,不重其义.
下面分享下两者的演进.
案例1:以在RedHat上安装Nginx为例子,网上很多文章的步骤大概如下:
这种做法早些年是非常流行的,而且很多人对于在configure后面带的那些参数很是自得,屡试不爽.
时至今日这种方法仍然在很多初学者那里非常流行,而这种做法就是严重的反DevOps的做法.
案例2:以给Nginx增加一个虚拟站点www.devops.org为例,很多初学者一上来就打开nginx.conf开始改,这同样是严重反DevOps的.
这可能是因为一来nginx官方文档是这么改的,二来很多文章也是这么转载,或者原创这么写的.
案例3:再以网络性能优化的为例,很多Ops同学直接冲到/etc/sysctl.conf这里面疯狂的修改一通,添加了各种参数.
这仍然是反DevOps的.一来过不久以后也不知道哪些是自己改的,哪些的默认的,二来如果想用脚本批量更新也是大问题.
针对上面提到的,我认为DevOps应该是这么做的:
对于案例1:首先根据自己的系统设置好nginx的源,而设置源的方法也不是直接冲到/etc/yum.conf,而是建立一个/etc/yum.repos.d/nginx.repo文件,用于保存nginx的源信息.然后然后通过yum install nginx 安装.(如果一定非得必须特定版本,稍后讨论).
对于案例2:给Nginx添加一个虚拟站点.RPM包的结构如下
尽管这个结构不是很令人满意,但是仍然可以将就.
至少我们可以看出Redhat的潜在建议是让我们把新的站点放在conf.d下面,我建议的命名是www.devops.org.conf.
那么问题来了,如果我要暂时关闭这个站点怎么办呢?在这个结构下,我们只要把www.devops.org.conf从conf.d里移出来再reload一下就可以了……对,是移出来,不是删除.因为我们后面可能还要用.
此时www.devops.org.conf放在nginx目录下,显得有点格格不入,那么我们干脆建一个文件夹叫disabled-sites,把www.devops.org.conf放在disabled-sites下面得了,以后要是再启用该站点,就直接符号连接到conf.d下面.
再演进一步我们就有了如下的结构:
把站点放在sites-*里.available里放置所有站点的配置文件,通过符号连接到enabled目录下启用.
如果要临时关闭站点,可以删除enabled下的符号连接.这个结构就非常适合DevOps用脚本进行管理.
对于案例3:关于sysctl的修改,DevOps方法是在/etc/sysctl.d下面,按照命名规则添加一个文件,把需要添加的参数放到新文件即可.
这样一来可以方便查看自己修改了哪些,便于确认,二来可以持续集成,通过文件的形式保留自己思考的路径.
通过上面3个事例的演进,我们已经清晰的感觉到,上面三个步骤现在可以马上用脚本自动化起来.但是演进之前确实很难办到.
如果没有Ops的演进,再牛X的Dev他也无法完成自动批量管理以上的业务需求.
我作为Dev的时间要比作为Ops的时间长很多.8年前从Windows转到Unix-like下,我们看下两个不同系统下,Dev的思路的差别.
写过Windows程序的人都有一个非常坚定的信念就是API,Windows系统下事无巨细都会有对应的API,尤为著名的是注册表的API,还有一个典型的是服务API(Windows Services).
你要改个啥配置,要创建一个Service都必须得用API来完成.复杂点的比如写一个端口扫描的要用到socket和多线程的API等等.这个端口扫描说来业务逻辑本身很简单,倒是程序逻辑搞的复杂的不得了.
而Unix-like的系统,沿袭着Unix的哲学其Dev的思路又是另外一套.修改配置,直接冲到文件里改,创建一个daemon/service直接写个shell脚本放到系统即可,完全不必要API.
所有的一切无论是在Dev还是Ops面前都是一目了然.前面提到的端口扫描更是直接用python/ruby/shell 直接调用nmap搞定,效率高,功能强大,稳定性和兼容性都不错.
我认为这是Dev要借鉴的,也是思想上最大的差别.
统统用API做出来的东西,一是容易让Ops一头雾水,搞不清楚,很难参与,二是有些功能实现起来要达到足够的性能,强大,稳定以及良好的兼容性是非常困难的.
nmap第一版本是1997.9发布的,历经18个年头,这样的工具我们一朝一夕是难以实现的.
鉴于以上的讨论,我给Dev即将转到DevOps的同学们的建议是:
Dev和Ops的另外一个区别是,以往Dev注重的是具体功能开发,而Ops天生要关注的是系统的整体管理.
功能开发注重逻辑的正确,1+1=2;但是Ops要求业务和结果导向,有时1+1可能是无穷大,比如磁盘满了.
从自动化部署工具来看他们的关系,Python/Ruby通过业务逻辑把产生出相关文件和Shell语句通过下面两种方式执行:
因此Python/Ruby作用是:编排和启动Shell语句的作用;具体实现功能,则仍是Shell语句.
根据这种关系,我们不难发现以上两种方式存在现实的局限性:
我的建议是在shell做文章,即基于shell脚本的机制完成远端业务逻辑的工作,通过ssh或者agent调用脚本执行功能,这样提高了效率又便于Ops参与脚本的编写和调试.
结论:DevOps的落点是Ops,Python/Ruby的落点是shell和commands.
Python/Ruby的优势是业务逻辑,文件处理等,莫用Python/Ruby去实现shell和commands擅长的.
Python/Ruby体现的重要性是程序设计的思想,shell和commands的重要性在于,系统最终由他们改变.
以前是Ops玩shell和commands,现在是DevOps通过Python/Ruby玩shell和commands,所以本质还是shell和commands.
就像互联网和传统行业一样,有互联网传统行业转的更好,但是没有互联网传统行业一样转;而如果没有传统行业,估计饭都吃不上,互联网也就不存在了.
根据前面的结论,我认为DevOps的核心竞争是在Shell和Commands的竞争.而操作系统能力的提升也将是Shell和commands的提升.
试想如果没有yum/apt,没有sed,没有iptables,没有virsh这样的指令,我们是否寸步难行?答案当然是肯定的.
有人说,可以通过c/python/ruby实现,反正都有api,这是错误的轮子思路.
我可以肯定的说,我们几乎没有能力超越先贤们历经数十年累积的成果.即便可以我们做出来类似的东西,也很难超越这些既有的工具,这些工具优秀之处除了智慧,还有时间以及实践的检验.
但是有一件事我们是可以做的,就是把操作系统业务能力提升起来.我认为的操作系统能力模型里,唯缺此一项.
我们不需要再写一个iptables,sed,yum/apt,我们可以包装他们,通过命令的组合和逻辑的判断,衍生出专用的业务能力.
RedHat下有不少好的例子,比如service iptables save的功能.此功能的意义如下:
这就是一种操作系统的能力.这种能力在Linux的一些分支上是没有的,我们就必须自己编写脚本实现此功能.但是写来写去,写得最好也就是跟RedHat大同小异,但是却花了我们的宝贵的时间.
试想在拥有这种能力的RedHat上面,DevOps开发一个批量保存iptables的功能是否更容易呢?
转载请注明本页网址:
http://www.vephp.com/jiaocheng/4350.html