重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
基于OpenStack M版本各组件高可用方案探索是怎样的,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。
成都创新互联是一家集网站建设,简阳企业网站建设,简阳品牌网站建设,网站定制,简阳网站建设报价,网络营销,网络优化,简阳网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。
本测试主要是针对Openstack各个组件,探索实现高可用的部署架构,防止在某个物理节点down机之后造成云平台服务以及虚拟机实例的不可用。
Openstack主要组件以及需要考虑实现HA的部分如下:
1:keystone认证模块
1) keystone-api
2:glance镜像模块
1) glance-api
2) glance-registry
3) glance backend storage
3:nova计算模块
1) nova-api
2) nova-novncproxy
3) instance
4;cinder块存储模块
1) cinder-api
2) cinder-volume
5:neutron网络模块
1) neutron-server
2) l3 router
6:swift对象存储模块
1) proxy-server
7:horizon前台dashboard界面
8:后台mariaDB数据库
9:rabbitmq消息队列中间件
10:memcache缓存系统
部署的物理主机信息如下:
节点名 | 登录操作IP地址 | 内部组件通信IP地址 | OS版本 | Openstack版本 |
controller | 10.45.5.155 | 192.168.159.128 | CentOS7.2 | mitaka |
compute | 10.45.6.196 | 192.168.159.129 | CentOS7.2 | mitaka |
compute1 | 10.45.6.191 | 192.168.159.130 | CentOS7.2 | mitaka |
所有主机均部署openstack所有的服务组件,方便进行高可用部署。
1) keystone-api(httpd)
高可用实现方式:
pacemaker+corosync:通过pacemaker生成浮动地址,3个节点将keystone服务监听直接启动在0.0.0.0,浮动地址在各个节点之间切换,同时只有一个节点提供服务。
haproxy:通过pacemaker生成浮动地址,3个节点将keystone服务监听直接启动在各个节点的内部通信ip上,再通过haproxy将监听启动在浮动ip上,统一对外提供服务,并对下面3个物理节点分发请求。
遗留问题:使用haproxy无法做到A-A负载均衡模式,会有token信息混乱的问题,所以在haproxy中只能配置一个active节点,其他节点为backup。
1) glance-api, glance-registry
高可用实现方式:
pacemaker+corosync:通过pacemaker生成浮动地址,3个节点将api和registry服务监听直接启动在0.0.0.0,浮动地址在各个节点之间切换,同时只有一个节点提供服务。
haproxy:通过pacemaker生成浮动地址,3个节点将api和registry服务监听直接启动在各个节点的内部通信ip上,再通过haproxy将监听启动在浮动ip上,统一对外提供服务,并对下面3个物理节点分发请求实现A-A模式冗余。
2) glance后端存储
高可用实现方式:
swift:后端通过连接swift对象存储的浮动ip,依靠swift本身的高可用性,实现glance后端存储的HA。
遗留问题:暂无
1) nova-api, nova-novncproxy
高可用实现方式:
pacemaker+corosync:通过pacemaker生成浮动地址,3个节点将api和vncproxy服务监听直接启动在0.0.0.0,浮动地址在各个节点之间切换,同时只有一个节点提供服务。
haproxy:通过pacemaker生成浮动地址,3个节点将api和vncproxy服务监听直接启动在各个节点的内部通信ip上,通过haproxy将监听启动在浮动ip上,统一对外提供服务,并对下面3个物理节点分发请求,实现A-A模式冗余。
2) instance
高可用实现方式:
instance live migrate:通过live migrate功能实现实例在计算节点之间的在线迁移.(类似vSphere中的vmotion功能 )
instance evacuate:通过nova-evacuate组件实现在计算节点宕机的情况下,将instance从其他节点上重启。
遗留问题:暂时没有可靠的方法实现在主机故障的情况下自动触发instance evacuate.(实现类似vSphere HA的功能)
1) cinder-api
高可用实现方式:
pacemaker+corosync:通过pacemaker生成浮动地址,3个节点将api服务监听直接启动在0.0.0.0,浮动地址在各个节点之间切换,同时只有一个节点提供服务。
haproxy:通过pacemaker生成浮动地址,3个节点将api服务监听直接启动在各个节点的内部通信ip上,通过haproxy将监听启动在浮动ip上,统一对外提供服务,并对下面3个物理节点分发,请求实现A-A模式冗余。
2) cinder-volume
高可用实现方式:
cinder migrate:通过在多个节点部署cinder-volume服务,连接后端同一个磁阵。当其中一个cinder-volume出现问题,如主机宕机,存储链路故障等,即可使用cinder migrate将volume host为宕机的cinder节点的volume的volume host更改为正常的host,即可重新访问到存储。
遗留问题:
1. 暂时没有可靠的方案实现cinder-volume服务状态的检测以及自动切换,如无法监控存储链路故障。
2. 暂时无法配置volume跨backend的在线拷贝迁移(实现类似vSphere中Storage Vmotion的功能)
1) neutron-server
高可用实现方式:
pacemaker+corosync:通过pacemaker生成浮动地址,3个节点将neutron-server服务监听直接启动在0.0.0.0,浮动地址在各个节点之间切换,同时只有一个节点提供服务。
haproxy:通过pacemaker生成浮动地址,3个节点将neutron-server服务监听直接启动在各个节点的内部通信ip上,通过haproxy将监听启动在浮动ip上,统一对外提供服务,并对下面3个物理节点分发请求, 实现A-A模式冗余。
2) l3 router
高可用实现方式:
keepalived+vrrp:待测试
遗留问题:
1. 如果要将我们当前的vmware的组网方式照搬到openstack上,可能无法对号入座,需要一起讨论一下。
1) proxy-server
高可用实现方式:
pacemaker+corosync:通过pacemaker生成浮动地址,3个节点将proxy-server服务监听直接启动在0.0.0.0,浮动地址在各个节点之间切换,同时只有一个节点提供服务。
haproxy:通过pacemaker生成浮动地址,3个节点将keystone服务监听直接启动在各个节点的内部通信ip上,通过haproxy将监听启动在浮动ip上,统一对外提供服务,并对下面3个物理节点分发请求,实现A-A模式冗余。
遗留问题:暂无
1) dashboard
高可用实现方式:
pacemaker+corosync:通过pacemaker生成浮动地址,3个节点将dashboard web服务监听直接启动在0.0.0.0,浮动地址在各个节点之间切换,同时只有一个节点提供服务。
haproxy:通过pacemaker生成浮动地址,3个节点将dashboard web服务监听直接启动在各个节点的内部通信ip上,通过haproxy将监听启动在浮动ip上,统一对外提供服务,并对下面3个物理节点分发请求,实现A-A模式冗余。
遗留问题:暂无
galera cluster:三个节点均安装MariaDB数据库,通过galera cluster创建多节点多主集群,然后通过pacemaker生成浮动地址,在各个节点之间切换,同时只有一个数据库节点提供服务。
遗留问题:官方ha-guide中有使用haproxy挂galera cluster的例子,但是实际配置中暂时无法使用haproxy做前端分发,通过haproxy监听的端口无法连接数据库,原因暂时还未查明。
rabbitmq internal cluster:rabbitmq内部提供和原生的集群机制,可以将多个节点加入到一个集群中,通过网络同步消息队列数据。并且openstack其他各个组件也内部提供了冗余的消息队列配置选项,在配置message queue地址的时候,同时加入3个节点的地址和端口即可。
遗留问题:暂无
original supported by openstack:openstack原生支持memcached的A-A多点配置,和rabbitmq类似,只需要在配置项中配置所有memcached节点的地址即可
遗留问题:暂无
根据如上测试结论,得出各个组件的HA机制实现矩阵如下:
系统模块 | 服务模块 | pacemaker+corosync | haproxy | 其他机制 | 备注 |
keystone认证模块 | keystone-api | √ | √ | haproxy暂时不支持负载均衡模式 | |
glance镜像模块 | glance-api | √ | √ | ||
glance-registry | √ | √ | |||
glance后端存储 | × | × | swift | ||
nova计算模块 | nova-api | √ | √ | ||
nova-novncproxy | √ | √ | |||
instance | × | × | nova migrate | 暂时无法实现故障时自动evacuate | |
cinder块存储模块 | cinder-api | √ | √ | ||
cinder-volume | × | × | cinder migrate | 暂时无法实现故障时自动migrate | |
neutron网络模块 | neutron-server | √ | √ | ||
L3 router | × | × | Keepalived+vrrp | Router冗余方案待测试 openstack组网方案需要讨论 | |
swift对象存储模块 | proxy-server | √ | √ | ||
horizon前台管理界面 | dashboard | √ | √ | ||
mariadb后台sql数据库 | mariadb | √ | × | galera cluster | 按照官方ha指导中的haproxy配置方式客户端无法连接数据库 |
rabbitmq消息队列 | rabbitmq | × | × | 自带cluster机制 | |
memcached缓存系统 | memcached | × | × | openstack原生支持多memcached server |
关于基于OpenStack M版本各组件高可用方案探索是怎样的问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注创新互联行业资讯频道了解更多相关知识。