集群成功创建后,会默认创建如下网络资源:
1)一个内网SLB(用途:访问api server)
2)一个后付费NAT网关+一个后付费EIP弹性IP (创建集群时如果勾选“配置SNAT”则会自动创建,用于集群出公网)
注意:千万不要随意删除这些资源,否则会导致集群连接不上从而导致页面功能瘫痪!!!
创建入口:聚石塔-控制台-运维中心。
设置集群名称、选择region、专有网络和虚拟交换机;专有网络选择目前ECS集群所在的VPC。
注:交换机别选C区的,否则创建集群会提示失败,也可见后面常见问题2。
注意:
1)云服务器列表会过滤出上一步设置的VPC下的机器;另外,已关联了应用的机器也会被过滤;
2)ECS请选择空闲的或者新购机器,不要选择部署服务或者带有数据的服务器,云服务器添加进k8s集群时会对ECS做一次重置;
3)由于会重置ECS,所以需要重新设置ECS登录方式,密钥和密码方式都可以,推荐使用密钥方式。
目前Kubernetes集群默认只提供Terway网络插件。
1)创建集群时如果勾选“配置SNAT”,且VPC网络内不存在NAT网关,则会创建如下资源:一个后付费的NAT网;一个后付费的弹性公网IP;
2)创建集群时不勾选“配置SNAT”。
如果VPC本身没有手动配置过SNAT,则创建集群会提示失败;
如果VPC本身已经有了SNAT,则可以复用原来的,集群可以成功创建。
注意:
1)设置POD和Service的CIDR网段,如果是首次创建,就按照默认值不需要改动,直接点击“完成”;
2)如果是创建第二个集群,可以把这里相应的改下,原则就是这里设置的网段不能与VPC以及之前创建的网段冲突;比如可以设置成172.22.0.0/16,172.23.0.0/20;
3)如果点击“完成”仍然报CIDR相关问题,请到答疑群反馈;
4)这一步如果点击“完成”,出现其他问题,也请到答疑群反馈。
1)集群创建需要开通相关服务,如果未开通,请依次点击右侧“RAM授权”进行授权,点击下方“刷新”按钮进行查看。
2)集群创建会创建相关云产品,也列在下方了。
集群创建成功之后,初始化和ECS节点添加大概需要10-15分钟,请耐心等待,在集群列表页可以观察集群运行状态的变化。集群运行状态会由 空白->initial->scaling->running。running状态说明集群最终状态正常,可以发布部署了。
注意:
1)添加已有节点,只能选择当前集群VPC下的,如果ECS之前关联到了应用,这里也没法添加,请先解除关联(确保机器可以添加到集群,因为系统盘会有一次被重置的操作);
2)添加节点报错,请先看文档下面的常见问题自行排查,仍有问题请在答疑群反馈。
可能是系统脏数据导致,请在答疑群反馈。
一直“上一步”,回到集群基本信息设置,别勾选可用区c的交换机,之后再继续往后走。
请直接在答疑群反馈。。
请直接在答疑群反馈。
首先找到集群使用的VPC的网段,保证Pod以及Service的网段不和VPC网段冲突。
比如VPC网段为192.****,那完全可以设置Pod的Service的网段以172开头的,网页上有提示设置的网段规则,比如分别设置为172.20.0.0/16,172.21.0.0/20。
如果之前创建过集群,那么查看这个集群已经设置好的Pod的Service的网段,然后相应的增加就好,比如分别设置
172.22.0.0/16,172.23.0.0/20。
可能是集群初始化后,异步添加节点失败了,需要手动再添加一下,集群管理-节点列表-添加已有节点。
所选ECS已经加入了5个安全组,阿里云限制每台ECS最多加入5个安全组,加入集群需要加入另一个安全组。
解决办法,将ECS退出其他安全组,保证加入的安全组数量<=4。
VPC路由表超限,找到创建集群使用的VPC,提交阿里云工单,申请一下该VPC下的路由表quota。
找到创建集群使用的VPC,提交阿里云工单,申请一下该VPC下的EIP quota。
首先,确认下ECS是否和集群的VPC属于同一个。
其次,确认下ECS是否已经关联到聚石塔的应用,关联了应用的机器原则上不能添加进集群(机器会被重置)。
首先,每台ECS交付到手后,内存会有500-1000M左右折损,8G的机器实际最大容量只有7.5G(7500M)左右;
其次,每台接入到集群后的ECS,会预留额外的800M内存,给集群内部组件以及除开集群外的其他进程使用(这个是为了保证集群中每个节点的稳定性);
再次,每台接入到集群后的ECS,会启用集群节点相关组件,占用 0.35C+100M内存;
最后,集群各个核心组件,一共还需要占用1C + 1000M资源,这些资源量会随机地占用集群内机器的资源。
总之,对于N台ECS的集群来说,
不可调度CPU = N*0.35C + 1C
不可调度内存 = N*500M(折损)+ N* 800M(系统预留)+ N*100M(系统proxy组件占用) + 1000M(集群其他组件)
当N=2时,不可调度cpu=1.7c,不可调度内存=4G
资源限制主要在于内存,平均每台机器上可调度的内存大约为6G,极端情况下如果集群各个核心组件都部署在一台ECS上,此时两台机器上可调度内存可能分别为 4.2G,5.8G。
所以两台机器的集群可以部署两个2C4G的容器实例;2C5G的实例至少能部署起来一个;2C6G的实例无法部署。
如上面一个问题中所述,集群管理ECS,实际可以调度的资源可以认为要比购买规格少2G左右,比如购买4C8G的机器,可以用来部署容器的大约3C 6G(如果你只有一两台机器,可能连一个3C 6G的机器也部署不起来,集群规模太小,可能这台机器被占用了很多资源来运行集群核心组件)。另外,为了稳定性,集群要保证资源水位健康,集群中的机器也不建议跑满。
1)建议买更大规格的机器;10台4C8G的机器,不如买5台 8C16G;
2)建议增加节点数量,节点越多,集群自身占用的资源就可以忽略不计,其他的资源都可以被集群调度了;
3)建议增加集群中的实例规格类型,大小搭配,可以将集群可调度的资源发挥到最大。