Ⅰ ⑩ OpenStack高可用集群部署方案(train版)—OpenStack对接Ceph存储
参考Ceph官方安装文档
Openstack环境中,数据存储可分为临时性存储与永久性存储。
临时性存储:主要由本地文件系统提供,并主要用于nova虚拟机的本地系统与临时数据盘,以及存储glance上传的系统镜像;
永久性存储:主要由cinder提供的块存储与swift提供的对象存储构成,以cinder提供的块存储应用最为广泛,块存储通常以云盘的形式挂载到虚拟机中使用。
Openstack中需要进行数据存储的三大项目主要是nova项目(虚拟机镜像文件),glance项目(共用模版镜像)与cinder项目(块存储)。
下图为cinder,glance与nova访问ceph集群的逻辑图:
ceph与openstack集成主要用到ceph的rbd服务,ceph底层为rados存储集群,ceph通过librados库实现对底层rados的访问;
openstack各项目客户端调用librbd,再由librbd调用librados访问底层rados;
实际使用中,nova需要使用libvirtdriver驱动以通过libvirt与qemu调用librbd;cinder与glance可直接调用librbd;
写入ceph集群的数据被条带切分成多个object,object通过hash函数映射到pg(构成pg容器池pool),然后pg通过几圈crush算法近似均匀地映射到物理存储设备osd(osd是基于文件系统的物理存储设备,如xfs,ext4等)。
CEPH PG数量设置与详细介绍
在创建池之前要设置一下每个OSD的最大PG 数量
PG PGP官方计算公式计算器
参数解释:
依据参数使用公式计算新的 PG 的数目:
PG 总数= ((OSD总数*100)/最大副本数)/池数
3x100/3/3=33.33 ;舍入到2的N次幕为32
openstack集群作为ceph的客户端;下面需要再openstack集群上进行ceph客户端的环境配置
在openstack所有控制和计算节点安装ceph Octopus源码包,centos8有默认安装,但是版本一定要跟连接的ceph版本一致
glance-api 服务运行在3个控制节点, 因此三台控制节点都必须安装
cinder-volume 与 nova-compute 服务运行在3个计算(存储)节点; 因此三台计算节点都必须安装
将配置文件和密钥复制到openstack集群各节点
配置文件就是生成的ceph.conf;而密钥是 ceph.client.admin.keyring ,当使用ceph客户端连接至ceph集群时需要使用的密默认密钥,这里我们所有节点都要复制,命令如下
※Glance 作为openstack中镜像服务,支持多种适配器,支持将镜像存放到本地文件系统,http服务器,ceph分布式文件系统,glusterfs和sleepdog等开源的分布式文件系统上。目前glance采用的是本地filesystem的方式存储,存放在默认的路径 /var/lib/glance/images 下,当把本地的文件系统修改为分布式的文件系统ceph之后,原本在系统中镜像将无法使用,所以建议当前的镜像删除,部署好ceph之后,再统一上传至ceph中存储。
※Nova 负责虚拟机的生命周期管理,包括创建,删除,重建,开机,关机,重启,快照等,作为openstack的核心,nova负责IaaS中计算重要的职责,其中nova的存储格外重要,默认情况下,nova将instance的数据存放在/var/lib/nova/instances/%UUID目录下,使用本地的存储空间。使用这种方式带来的好处是:简单,易实现,速度快,故障域在一个可控制的范围内。然而,缺点也非常明显:compute出故障,上面的虚拟机down机时间长,没法快速恢复,此外,一些特性如热迁移live-migration,虚拟机容灾nova evacuate等高级特性,将无法使用,对于后期的云平台建设,有明显的缺陷。对接 Ceph 主要是希望将实例的系统磁盘文件储存到 Ceph 集群中。与其说是对接 Nova,更准确来说是对接 QEMU-KVM/libvirt,因为 librbd 早已原生集成到其中。
※Cinder 为 OpenStack 提供卷服务,支持非常广泛的后端存储类型。对接 Ceph 后,Cinder 创建的 Volume 本质就是 Ceph RBD 的块设备,当 Volume 被虚拟机挂载后,Libvirt 会以 rbd 协议的方式使用这些 Disk 设备。除了 cinder-volume 之后,Cinder 的 Backup 服务也可以对接 Ceph,将备份的 Image 以对象或块设备的形式上传到 Ceph 集群。
使用ceph的rbd接口,需要通过libvirt,所以需要在客户端机器上安装libvirt和qemu,关于ceph和openstack结合的结构如下,同时,在openstack中,需要用到存储的地方有三个:
为 Glance、Nova、Cinder 创建专用的RBD Pools池
需要配置hosts解析文件,这里最开始已经配置完成,如未添加hosts解析需要进行配置
在cephnode01管理节点上操作 ;命名为:volumes,vms,images
记录:删除存储池的操作
在cephnode01管理节点上操作 ;
针对pool设置权限,pool名对应创建的pool
nova-compute与cinder-volume都部署在计算节点 ,不必重复操作,如果计算节点与存储节点分离需要分别推送;
全部计算节点配置;以compute01节点为例;
Glance 为 OpenStack 提供镜像及其元数据注册服务,Glance 支持对接多种后端存储。与 Ceph 完成对接后,Glance 上传的 Image 会作为块设备储存在 Ceph 集群中。新版本的 Glance 也开始支持 enabled_backends 了,可以同时对接多个存储提供商。
写时复制技术(-on-write) :内核只为新生成的子进程创建虚拟空间结构,它们复制于父进程的虚拟空间结构,但是不为这些段分配物理内存,它们共享父进程的物理空间,当父子进程中有更改相应的段的行为发生时,再为子进程相应的段分配物理空间。写时复制技术大大降低了进程对资源的浪费。
全部控制节点进行配置;以controller01节点为例;
只修改涉及glance集成ceph的相关配置
变更配置文件,重启服务
ceph官网介绍 QEMU和块设备
对接 Ceph 之后,通常会以 RAW 格式创建 Glance Image,而不再使用 QCOW2 格式,否则创建虚拟机时需要进行镜像复制,没有利用 Ceph RBD COW 的优秀特性。
总结
将openstack集群中的glance镜像的数据存储到ceph中是一种非常好的解决方案,既能够保障镜像数据的安全性,同时glance和nova在同个存储池中,能够基于-on-write(写时复制)的方式快速创建虚拟机,能够在秒级为单位实现vm的创建。
全部计算节点进行配置; 以compute01节点为例;只修改glance集成ceph的相关配置
全部计算节点重启cinder-volume服务;
任意openstack控制节点上查看;
在任意控制节点为cinder的ceph后端存储创建对应的type,在配置多存储后端时可区分类型;
为ceph type设置扩展规格,键值 volume_backend_name ,value值 ceph
任意控制节点上创建一个1GB的卷 ;最后的数字1代表容量为1G
查看创建好的卷
openstack创建一个空白 Volume,Ceph相当于执行了以下指令
从镜像创建 Volume 的时候应用了 Ceph RBD COW Clone 功能,这是通过 glance-api.conf [DEFAULT] show_image_direct_url = True 来开启。这个配置项的作用是持久化 Image 的 location,此时 Glance RBD Driver 才可以通过 Image location 执行 Clone 操作。并且还会根据指定的 Volume Size 来调整 RBD Image 的 Size。
一直存在的cirros_qcow2镜像为对接ceph之前的镜像,现在已无法使用,所以将之删除
在openstack上从镜像创建一个Volume,Ceph相当于执行了以下指令
任意控制节点操作;
查看快照详细信息
在openstack上对镜像的卷创建快照,Ceph相当于执行了以下指令
如果说快照时一个时间机器,那么备份就是一个异地的时间机器,它具有容灾的含义。所以一般来说 Ceph Pool backup 应该与 Pool images、volumes 以及 vms 处于不同的灾备隔离域。
https://www.cnblogs.com/luohaixian/p/9344803.html
https://docs.openstack.org/zh_CN/user-guide/backup-db-incremental.html
一般的,备份具有以下类型:
在虚拟磁盘映像的计算节点上使用本地存储有一些缺点:
Nova 为 OpenStack 提供计算服务,对接 Ceph 主要是希望将实例的系统磁盘文件储存到 Ceph 集群中。与其说是对接 Nova,更准确来说是对接 QEMU-KVM/libvirt ,因为 librbd 早已原生集成到其中。
如果需要从ceph rbd中启动虚拟机,必须将ceph配置为nova的临时后端;
推荐在计算节点的配置文件中启用rbd cache功能;
为了便于故障排查,配置admin socket参数,这样每个使用ceph rbd的虚拟机都有1个socket将有利于虚拟机性能分析与故障解决;
相关配置只涉及全部计算节点ceph.conf文件的[client]与[client.cinder]字段,以compute163节点为例
全部计算节点配置 ceph.conf文件相关的 [client] 与 [client.cinder] 字段,以compute01节点为例;
在全部计算节点配置nova后端使用ceph集群的vms池,以compute01节点为例;
在全部计算节点操作;
在全部计算节点操作,以compute01节点为例;
以下给出libvirtd.conf文件的修改处所在的行num
Ⅱ 全面认识openstack,它到底是什么包含什么
OpenStack是一个云平台管理的项目,它不是一个软件。这个项目由几个主要的组件组合起来完成一些具体的工作。
OpenStack是一个旨在为公共及私有云的建设与管理提供软件的开源项目,OpenStack被公认作为基础设施即服务(简称IaaS)资源的通用前端。
openstack自身都包含什么
以下是5个OpenStack的重要构成部分:
l Nova – 计算服务
l Swift – 存储服务
l Glance – 镜像服务
l Keystone – 认证服务
l Horizon – UI服务
Ⅲ OpenStack详细资料大全
OpenStack是一个由NASA(美国国家航空航天局)和Rackspace合作研发并发起的,以Apache许可证授权的自由软体和开放原始码项目。
OpenStack是一个开源的云此碧计算管理平台项目,由几个主要的组件组合起来完成具体工作。OpenStack支持几乎所有类型的云环境,项目目标是提供实施简单、可大规模扩展、丰富、标准统一的云计算管理平台。OpenStack通过各种互补的服务提供了基础设施即服务(IaaS)的解决方案,每个服务提供API以进行集成。
OpenStack是一个旨在为公共及私有云的建设与管理提供软体的开源项目。它的社区拥有超过130家企业及1350位开发者,这些机构与个人都将OpenStack作为基础设施即服务(IaaS)资源的通用前端。OpenStack项目的首要任务是简化云的部署过程并为其带来良好的可扩展性。本文希望通过提供必要的指导信息,帮助大家利用OpenStack前端来设定及管理自己的公共云或私有云。
OpenStack云计算平台,帮助服务商和企业内部实现类似于 Amazon EC2 和誉镇 S3 的云基础架构服务(Infrastructure as a Service, IaaS)。OpenStack 包含两个主要模组:Nova 和 Swift,前者是 NASA 开发的虚拟伺服器部署和业务计算模组;后者是 Rackspace开发的分散式云存储模组,两者可以一起用,也可以分开单独用。OpenStack除了有 Rackspace 和 NASA 的大力支持外,还有包括 Dell、Citrix、 Cisco、 Canonical等重量级公司的贡献和支持,发展速度非常快,有取代另一个业界领先开源云平台 Eucalyptus 的态势。
基本介绍
- 中文名 :OpenStack云计算管理平台
- 外文名 :OpenStack
- 开发者 :NASA,Rackspace
- 程式语言 :Python
- 遵循标准 :Open 、AMQP、森虚举SQLAlchemy
运用范围,厂商支援,技术资料,项目,核心项目,社区项目,市场趋向,大型用户,内容详解,构建私有云,服务中心,概述,系统构成,服务内容,服务体验,服务价值,成员企业,
运用范围
OpenStack是IaaS(基础设施即服务)组件,让任何人都可以自行建立和提供 云端运算 服务。 此外,OpenStack也用作建立 防火墙 内的“ 私有云 ”(Private Cloud),提供机构或企业内各部门共享资源。 厂商支援
美国国家航空航天局的Nebula运算平台。
美国国家航空航天局的Nebula运算平台。 现时已表示支持OpenStack项目的大型硬体厂商包括:IBM、AMD、Intel和戴尔等。 微软在2010年10月表示支持OpenStack与Windows Server 2008 R2的整合。 2011年2月,思科系统正式加入OpenStack项目,重点研制OpenStack的网路服务。 Ubuntu未来在堆叠方面的云网路化方案。 2012年4月,IBM宣布加入OpenStack项目,并作为主要赞助商。 2012年10月,Viacloud互联云平台加入OpenStack项目,研制OpenStack公有云平台和私有云平台。 IBM在2013年举行的 IBM Pulse大会宣布将基于OpenStack提供私有云服务以及相关套用。
技术资料
以Python程式语言编写 整合Tornado 网页伺服器、Nebula运算平台 使用Twisted软体框架 遵循Open Virtualization Format、AMQP、SQLAlchemy等标准 虚拟机器软体支持包括:KVM、Xen、VirtualBox、QEMU、 LXC 等。
项目
核心项目
OpenStack覆盖了网路、虚拟化、作业系统、伺服器等各个方面。它是一个正在开发中的云计算平台项目,根据成熟及重要程度的不同,被分解成核心项目、孵化项目,以及支持项目和相关项目。每个项目都有自己的委员会和项目技术主管,而且每个项目都不是一成不变的,孵化项目可以根据发展的成熟度和重要性,转变为核心项目。截止到Icehouse版本,下面列出了10个核心项目(即OpenStack服务)。 计算(Compute):Nova。一套控制器,用于为单个用户或使用群组管理虚拟机实例的整个生命周期,根据用户需求来提供虚拟服务。负责虚拟机创建、开机、关机、挂起、暂停、调整、迁移、重启、销毁等操作,配置CPU、记忆体等信息规格。自Austin版本集成到项目中。 对象存储(Object Storage):Swift。一套用于在大规模可扩展系统中通过内置冗余及高容错机制实现对象存储的系统,允许进行存储或者检索档案。可为Glance提供镜像存储,为Cinder提供卷备份服务。自Austin版本集成到项目中 镜像服务(Image Service):Glance。一套虚拟机镜像查找及检索系统,支持多种虚拟机镜像格式(AKI、AMI、ARI、ISO、QCOW2、Raw、VDI、VHD、VMDK),有创建上传镜像、删除镜像、编辑镜像基本信息的功能。自Bexar版本集成到项目中。 身份服务(Identity Service):Keystone。为OpenStack其他服务提供身份验证、服务规则和服务令牌的功能,管理Domains、Projects、Users、Groups、Roles。自Essex版本集成到项目中。 网路&地址管理(Neork):Neutron。提供云计算的网路虚拟化技术,为OpenStack其他服务提供网路连线服务。为用户提供接口,可以定义Neork、Sub、Router,配置DHCP、DNS、负载均衡、L3服务,网路支持GRE、VLAN。外挂程式架构支持许多主流的网路厂家和技术,如OpenvSwitch。自Folsom版本集成到项目中。 块存储 (Block Storage):Cinder。为运行实例提供稳定的数据块存储服务,它的外挂程式驱动架构有利于块设备的创建和管理,如创建卷、删除卷,在实例上挂载和卸载卷。自Folsom版本集成到项目中。 UI 界面 (Dashboard):Horizon。OpenStack中各种服务的Web管理门户,用于简化用户对服务的操作,例如:启动实例、分配IP位址、配置访问控制等。自Essex版本集成到项目中。 测量 (Metering):Ceilometer。像一个漏斗一样,能把OpenStack内部发生的几乎所有的事件都收集起来,然后为计费和监控以及其它服务提供数据支撑。自Havana版本集成到项目中。 部署编排 (Orchestration):Heat。提供了一种通过模板定义的协同部署方式,实现云基础设施软体运行环境(计算、存储和网路资源)的自动化部署。自Havana版本集成到项目中。 资料库服务(Database Service):Trove。为用户在OpenStack的环境提供可扩展和可靠的关系和非关系资料库引擎服务。自Icehouse版本集成到项目中。
社区项目
(14个) 负载均衡:Atlas-LB(Rackspace) 讯息伫列:Burrow(Piston) 云管理
工具:Clanavi(Drupal) 自动部署:Crowbar(Dell) 服务部署:Juju(Ubuntu) 关系型资料库:RedDwarf(Rackspace) ...
市场趋向
Rackspace以OpenStack为基础的私有云业务每年营收7亿美元,增长率超过了20%。 OpenStack虽然有些方面还不太成熟,然而它有全球大量的组织支持,大量的开发人员参与,发展迅速。国际上已经有很多使用OpenStack搭建的公有云、私有云、混合云,例如:RackspaceCloud、惠普云、MercadoLibre的IT基础设施云、AT&T的CloudArchitec、戴尔的OpenStack解决方案等等。而在国内OpenStack的热度也在逐渐升温,华胜天成、高德地图、京东、阿里巴巴、
网络、中兴、华为等都对OpenStack产生了浓厚的兴趣并参与其中。自2010年创立以来,已发布10个版本。其中Icehouse版本有120个组织、1202名
代码贡献者参与,而最新的是Juno版本。OpenStack很可能在未来的基础设施即服务(IaaS)资源管理方面占据领导位置,成为公有云、私有云及混合云管理的“云作业系统”标准
大型用户
美国国家航空航天局 加拿大半官方机构CANARIE网路的DAIR(Digital Aelerator for Innovation and Research)项目,向大学与中小型企业提供研究和开发云端运算环境;DAIR用户可以按需要快速建立网路拓扑。 惠普云(使用Ubuntu Linux) MercadoLibre的IT基础设施云,现时以OpenStack管理超过6000 台虚拟机器。 AT&T的“Cloud Architect”,将在美国的达拉斯、圣地亚哥和新泽西州对外提供云端服务。
内容详解
创建虚拟机(VM)需要各种服务的互动和配合工作。下图展示了OpenStack典型环境架构,各个服务之间的互动和职能。
OpenStack典型环境架构 OpenStack因Open而开放,因组件而灵活,因包容而博大。有计算、网路、对象存储、块存储、身份、镜像服务、门户、测量、部署编排、资料库服务等等组件,有的组件可以根据需要选择安装,组网结构也很灵活、多样。实现了支持接入多种主流虚拟机软体:KVM、LXC、QEMU、Hyper-V、VMware、XenServer,也可以自行开发外挂程式接入其他的虚拟化软体。 OpenStack Compute (Nova)是一套控制器,用于为单个用户或使用群组启动虚拟机实例。它同样能够用于为包含着多个实例的特定项目设定网路。OpenStack Compute在公共云处理方面堪与Amazon EC2相提并论;而在私有云方面也毫不逊色于VMware的产品。在公共云中,这套管理机制将提供预制的镜像或是为用户创建的镜像提供存储机制,这样用户就能够将镜像以虚拟机的形式启动。 OpenStack 对象存储(Swift)是一套用于在大规模可扩展系统中通过内置冗余及容错机制实现对象存储的系统。这些对象能够通过一个REST API或是像Cyberck这样可以对接对象存储API的客户端加以恢复。 OpenStack镜像服务 (Glance)是一套虚拟机镜像查找及检索系统。它能够以三种形式加以配置:利用OpenStack对象存储机制来存储镜像;利用Amazon的简单存储解决方案(简称S3)直接存储信息;或者将S3存储与对象存储结合起来,作为S3访问的连线器。OpenStack镜像服务支持多种虚拟机镜像格式,包括VMware(VMDK)、Amazon镜像(AKI、ARI、AMI)以及VirtualBox所支持的各种磁碟格式。镜像元数据的容器格式包括Amazon的AKI、ARI以及AMI信息,标准OVF格式以及二进制大型数据。 OpenStack的开发周期是每年固定发布两个新版本,并且每一个新版软体发布时,开发者与项目技术领导者已经在规划下一个版本的细节。这些开发者来自全球70多个组织,超过1600人。他们采用高级的工具与开发方式,进行代码查看、持续的集成、测试与开发架构,让版本在快速成长的同时也能确保稳定性。
构建私有云
第一步是设定正确的硬体和网路环境。尽管OpenStack允许在一个单一的平面网路上部署一切,从安全的角度来看并不安全。取决于你所使用的管理程式以及虚拟网路接口,它会允许guest虚拟机嗅探管理流量。建议至少使用两个网路:一个用来管理流量,一个用来进行虚拟机之间的对话。这意味着所有的云计算结点中你需要两个网卡(一个运行实例)和网路管理者。这些应该运行在不同的IP范围中。计算结点和实例的网路也需要支持VLAN标记,因为这是在“项目”之间隔绝流量所使用的机制。一个项目等价于你的亚马逊EC2账户,除了你不能按照你所希望的数目创建和分配之外。每一个项目都有自己的管理员和用户,在既定项目中的所有实例可以彼此通信。通过指派每一个项目自己的VLAN以及内部和外部的IP位址池来执行。 一旦硬体和网路设定好,下一步就是确定在哪里部署所有的OpenStack组件。标准部署应有一个控制器和一系列计算结点。控制器运行讯息伺服器,资料库和其他的组件来编排云,同时计算结点运行实例。但是你也可以分解控制器为地理的部分,从而改善性能,像把MySQL放在不同的物理盒中。对于安全而言,最关键的是确保每一部分都安装在安全的主机上,你只需要将其附加在网路上,让云运转即可。 只有两部分需要暴露给外面的世界(即使那只是你的企业网路):API伺服器/Web 控制台(如果开启)和网路管理者。这些伺服器需要过硬,你甚至可以使用第三方网路接口来隔离后端管理用户连线产生的流量。 如果你遵循默认安装说明书,可能这些部分并不如他们应该的那样安全。下面是一些具体的改变: * MySQL伺服器使用指定的用户账户,不是根MySQL管理账户。这个账户和
密码将会暴露在每一个云结点上,即使使用基于证书的认证,因此所有结点需要访问这个资料库伺服器。 * MySQL配置档案中,限制访问伺服器,OpenStack用户账户为唯一授权IP位址。 * 移除任何不需要的OS组件并确保你所设定的伺服器只支持通过SSH的基于密钥的登入。 * 默认MySQL和RabbitMQ(讯息伺服器)流量不加密。如果你隔离了管理网路和坚固的主机,这就不应该是一个很糟糕的风险。如果你的云网路易于嗅探(例如,它和其他伺服器共享网路),你需要加密流量。你可以使用OpenSSL来进行MySQL 和RabbitMQ处理。(我个人还没进行测试,因此配置可能有点难。) 下一步,记住如果支持Web管理控制台,默认不适用SSL。
服务中心
中国OpenStack服务中心 概述
2013年6月18日在南京召开了“中国云计算产业促进大会暨中国OpenStack服务中心发布会”,华胜天成在会上正式宣布推出中国首家OpenStack服务中心。OpenStack是全球开发者共同参与的一个开源项目,旨在实现“云作业系统”,即一个具有部署和管理公有云、私有云以及混合云基础架构能力的平台。 1、建设并运营中国第一也可能是唯一的Openstack支持中心。 2、为Openstack的研究者,开发者和使用者提供丰富的线上及现场专业支持服务和咨询服务,消除客户使用开源软体的后顾之忧。 3、提高国内云计算从业人员数量和素质,普及开源软体精神与技术。 4、打破云计算建设的垄断,大大降低云计算平台建设与运营成本,推动并保障国内云计算平台建设蓬勃发展。
系统构成
800电话支持中心(100坐席) Web线上支持平台(100坐席) 服务电子销售平台 知识库 CRM系统 专业咨询团队(10人) 专业现场技术支持团队(50人) 专业客户化开发团队(100人) 专业运维管理团队(300人) 全球实验室级支持团队(2个国际顶级核心代码实验室)
服务内容
提供完善的L1,L2以及L3实验室级别线上与现场服务 24*7电话咨询/支持服务,Web线上咨询服务/支持服务 版本发布与
升级服务 测试服务 现场安装,升级/调优服务 定制开发服务 培训服务 知识库共享服务 运维服务 电子交易
服务体验
1、客户可以24小时通过电话或网路在支持中心获得帮助,包括云技术咨询,资料索取,购买服务包。 2、收费服务包分为级别(例) 基本服务包(5*8 电话支持服务) 标准服务包(7*24电话支持服务+现场服务) 高级服务包(7*24*6平台修复保证) 3、专业服务选项(例) 系统集成服务 专人值守服务 系统调优服务 系统迁移服务 巡检服务 运维管理服务 应急回响服务 培训服务
服务价值
1、对开源云计算的用户和潜在用户 提供了一个获得知识,指导和技术支持的渠道,解决了套用开源云技术找不到技术后盾的尴尬局面。 提供了一个高水平的技术团队对用户进行安装,配置,开发,最佳化,运维服务,使云计算平台可以正确的被部署和使用,真正产生效益。 2、对于Openstack产业链 促进Openstack在中国的落地生根,开花结果。解决了Openstack雾里看花的尴尬。 3、对于支持中心本身 获得大量的客户信息和项目机会,获得高利润的服务业务。聚合大量业内技术资源,形成技术资源池,并通过聚合效应使产业链共同成长。 4、对社会 大大促进云建设步伐,降低IT运营成本,提高业务敏捷度,节能减排,促进产业升级。
成员企业
华胜天成 Intel Canonical Rackspace 中国开源云联盟