基于Jenkins和Docker的CI/CD优化

发表于:2017-6-01 10:34

字体: | 上一篇 | 下一篇 | 我要投稿

 作者:Suyi    来源:苏依蜀黍de小木屋

  此次优化的原因在于作为一家服务Global用户的公司,在多个region部署了服务,而目前阿里云容器服务针对有海外部署需要的公司,有几个待改进之处:
  1、构建速度,海外构建需要在海外构建后将镜像推回国内
  2、香港可用区没有提供镜像仓库
  针对上述问题,我们优化从两个方面下手:
  1、搭建镜像仓库
  2、自主搭建构建集群
  3、构建集群的缓存优化
  一,镜像仓库
  镜像仓库这里,为了兼容旧项目,我们搭建两个仓库,一个是阿里云镜像仓库杭州区的Mirror,另一个是内部访问的私有仓库,不对外
  编排文件:
registry-push:
restart: always
image: "registry:2.6"
ports:
- 5050:5000
environment:
- REGISTRY_STORAGE=oss
- REGISTRY_STORAGE_OSS_ACCESSKEYID={ak}
- REGISTRY_STORAGE_OSS_ACCESSKEYSECRET={sk}
- REGISTRY_STORAGE_OSS_REGION=oss-cn-hongkong
- REGISTRY_STORAGE_OSS_BUCKET={hk_bucket}
- REGISTRY_STORAGE_OSS_INTERNAL=true
- REGISTRY_STORAGE_OSS_SECURE=false
registry:
restart: always
image: "registry:2.6"
environment:
- REGISTRY_STORAGE=oss
- REGISTRY_STORAGE_OSS_ACCESSKEYID={ak}
- REGISTRY_STORAGE_OSS_ACCESSKEYSECRET={sk}
- REGISTRY_STORAGE_OSS_REGION=oss-cn-hongkong
- REGISTRY_STORAGE_OSS_BUCKET={hk_bucket}
- REGISTRY_STORAGE_OSS_INTERNAL=true
- REGISTRY_STORAGE_OSS_SECURE=false
- REGISTRY_PROXY_REMOTEURL=https://registry.cn-hangzhou.aliyuncs.com
- REGISTRY_PROXY_USERNAME={username}
- REGISTRY_PROXY_PASSWORD={password}
nginx:
image: "nginx:1.9"
ports:
- 443:443
links:
- registry:registry
volumes:
- ./auth:/etc/nginx/conf.d
- ./auth/nginx.conf:/etc/nginx/nginx.conf:ro
目录结构:
.
├── auth
│   ├── insta360.com.chained.crt
│   ├── insta360.com.key
│   ├── nginx.conf
│   └── nginx.htpasswd
└── docker-compose.yml
1 directory, 5 files
  这样一个镜像仓库的Mirror就搭建好了,oss的bucket里有的镜像,从本地拉取,没有的,则从杭州区拉取,并存储到香港,加速二次使用的速度,对于集群部署,这样已经可以加速上线的过程了。而Push的那个仓库呢,主要是给我们自己用的,务必记得iptables设置规则,仅允许本机访问,他是我们用来推本地构建的镜像用的
  这样呢,这个仓库,既能访问到杭州的镜像,又能访问到我们自己的镜像
  二,jenkins以及缓存加速
  这里我们直接用阿里云提供的编码模板稍作修改:
version: '2'
services:
slave-java:
image: registry.aliyuncs.com/acs-sample/jenkins-slave-dind-java
volumes:
- /var/run/docker.sock:/var/run/docker.sock
- ./data/slave_java/.m2:/home/jenkins/.m2/
- ./conf/insta360_maven_settings.xml:/usr/share/maven/conf/settings.xml:ro
restart: always
slave-nodejs:
image: registry.aliyuncs.com/acs-sample/jenkins-slave-dind-nodejs
volumes:
- /var/run/docker.sock:/var/run/docker.sock
- ./data/slave_nodejs/.npm:/home/jenkins/.npm/
restart: always
app:
image: jenkins:2.46.2-alpine
volumes:
- ./data/jenkins_home:/var/jenkins_home
ports:
- 8080:8080
# - 50000:50000
privileged: true
restart: always
depends_on:
- slave-nodejs
- slave-java
目录结构如下:
.
├── conf
│   └── insta360_maven_settings.xml
├── data
│   ├── jenkins_home
│   ├── slave_java
│   └── slave_nodejs
└── docker-compose.yml
5 directories, 2 files
  注意配置里的几个变化:
  slave-java,挂载了一个私有的mavan的配置文件,有需要的记得加在这里,同时呢,我们把/home/jenkins/.m2/挂载了,这样重启应用不会删除已经下载的pkg
  slave-nodejs,同样挂载了/home/jenkins/.npm/目录,效果一样,是为了缓存node的包
  slave没有暴露端口,仅内部访问
  三,jenkins使用
  这里的配置访问我们就不废话了,可以参考这里:
  使用阿里云容器服务Jenkins 2.0实现持续集成之the tag you want篇
  看看以前的构建时间:
  再看看现在的时间,包过了构建时间+部署时间
  这里注意一下,阿里云的jenkins插件在提交部署后,有一个一分钟的等待时间(轮训去查看是否更新完毕),实际上呢,几次测试,整个时间是在20s左右,基本在一分钟完成,容器服务更新应用是滚动更新,不会一次更新所有的应用实例,从而保证不停机,自然的,也就带来了一定的延时。
  嗯哼╭(╯^╰)╮
  下次出了bug,一分钟就可以搞定线上的修复,想想也是很开心吧!
《2023软件测试行业现状调查报告》独家发布~

关注51Testing

联系我们

快捷面板 站点地图 联系我们 广告服务 关于我们 站长统计 发展历程

法律顾问:上海兰迪律师事务所 项棋律师
版权所有 上海博为峰软件技术股份有限公司 Copyright©51testing.com 2003-2024
投诉及意见反馈:webmaster@51testing.com; 业务联系:service@51testing.com 021-64471599-8017

沪ICP备05003035号

沪公网安备 31010102002173号