计算机系统应用教程网站

网站首页 > 技术文章 正文

k8s中的Service即svc

btikc 2024-09-04 03:09:06 技术文章 9 ℃ 0 评论

一、Service 介绍

k8s中,pod是应用程序的载体,我们可以通过pod的ip地址来访问应用程序,但是pod的IP地址是不固定的,这就意味着不方便直接采用pod的IP对服务进行访问。

为了解决这个问题,k8s提供了Service资源,service会对提供同一个服务的多个pod进行汇聚,并且提供一个统一的入口地址,通过访问service的入口地址就能访问到后面的pod服务。

Service在很多情况下只是一个概念,真正起作用的是kube-proxy服务进程,每个node节点上都运行了一个kube-proxy的服务进程,当创建service的时候会通过apiserver向etcd写入创建的service信息,而kube-proxy会基于监听的机制发现这种service的变化,然后会将新的service信息转换为对应的访问规则。

例如 10.87.87.88:80 是svc提供的访问入口,当访问这个入口时,可以发现后面有三个pod服务在等待调用,kube-proxy会基于轮询算法,将请求分发到其中一个pod上。这个规则会同时在集群内的所有节点上生成,所以在任何一个节点上访问都可以。

[root@k8s-n1 ~]# ipvsadm -Ln

IP Virtual Server version 1.2.1(size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port Forward Weight ActiveConn InActConn

TCP 10.87.87.88:80 rr

->10.244.1.31.80 Masq 1 0 0

->10.244.1.33.80 Masq 1 0 0

->10.244.1.36.80 Masq 1 0 0

二、kube-proxy支持的三种工作模式

userspace模式:

userspace模式下,kube-proxy会为每个service创建一个监听端口,发向cluster ip的请求被iptables规则重定向到kube-proxy监听的端口上,kube-proxy根据LB算法选择一个提供服务的pod并和其建立连接,以便将请求转发到pod上。

该模式下,kube-proxy充当了一个四层负载均衡器的角色,由于kube-proxy运行在userspace中,在进行转发处理的时候会增加内核和用户空间之间的数据拷贝,虽然比较稳定,但是效率非常低。

ipvs模式:

ipvs模式和iptables类似,kube-proxy监控pod的变化并创建相应的ipvs规则。ipvs相对iptables转发效率会更高,除此之外,ipvs支持更多的LB算法。

开启ipvs模式

1、安装ipvs内核模块

要使用ipvs必须安装它的内核模块,不然会降级为iptables模式

2、设置mode=ipvs

kubectl edit cm kube-proxy -n kube-system

3、删除

kubectl delete pod -l k8s-app=kube-proxy -n kube-system

4、测试ipvs模块是否开启成功

三、service有哪些类型

ClusteIP: 默认值,它是k8s系统自动分配的虚拟ip,只能在集群内部访问。

NodePort: 将service通过指定的node上的端口暴露给外部,通过此方法,就可以在集群外部访问服务。

LoadBalancer: 使用外接负载均衡器完成到服务的负载分发,注意此模式需要外部云环境支持。

ExternalName: 把集群外部的服务引入集群内部,直接使用。

3.1、我们先通过deployment创建出3个pod,来了解svc的工作过程,如下:

创建pod

kubectl create -f deployment-xuq.yaml

查看pod信息,--show-labels表示显示标签

kubectl get pod -n ns-test-xuq -o wide --show-labels

进入pod里的容器里

kubectl exec -it deployment-xuq-3678f2fc9f-0wqk3(pod名) -c gq-nginx-xuq(容器名) -n ns-test-xuq /bin/sh

在进入pod里的容器后,向nginx首页文件添加内容

echo 'hello 10.244.2.66' >/usr/share/nginx/html/index.html

然后退出 容器

exit

3.2、ClusterIP类型的service

svc-clusterip.yml

创建svc

kubectl create -f svc-clusterip.yml

查看svc信息

kubectl get svc -n ns-test-xuq -o wide

查看svc更详细信息

kubectl describe svc svc-clusterip-xuq -n ns-test-xuq

[root@k8s-m1 ~]# kubectl describe svc svc-clusterip -n ns-test-xuq
Name: svc-clusterip-xuq
Namespace: ns-test-xuq
Labels: <none>
Annotations: <none>
Selector: app=lable-nginx-xuq
Type: ClusterIP
IP: 10.87.87.88
Port: <unset> 80/TCP
TargetPort: 80/TCP
Endpoints: 10.244.1.6:80,10.244.1.7:80,10.244.1.8:80
Session Affinity: None
Events: <none>

Endpoint是k8s中的一个资源对象,存储在etcd中,用来记录一个svc对应的所有pod的访问地址,它是根据svc配置文件中的selector描述产生的

一个svc由一组pod组成,这些pod通过endpoint暴露出来,endpoint是实现实际服务的端点集合,也就是说svc和pod之间的联系是通过endpoint实现的。

查看ipvs的映射规则

ipvsadm -Ln

删除svc

kubectl delete -f svc-clusterip.yml

3.3、ClusterIP类型的SVC之HeadLiness

在一些场景下,开发人员可能不想使用service提供的负载均衡功能,而希望自己来控制负载均衡策略,针对这种情况,

k8s提供了headliness service,这类service不会分配clusterIP,如果想要访问svc,只能通过它的域名进行查询。

svc-headliness.yml

kubectl create -f svc-headliness.yml

kubectl get svc service-headliness -n test -o wide

kubectl describe svc service-headliness -n test

kubectl exec -it deployment-xuq-3678f2fc9f-0wqk3 -n dev /bin/sh

cat /etc/resolv.conf

dig @10.96.0.12 service-headliness.dev.svc.cluster.local

3.4、NodePort类型的service

在之前的案例中,创建的svc的IP地址只能在集群内部才可以访问,如果希望svc暴露给集群外部使用,那么久需要使用到另外一种类型的svc,称为NodePort类型的svc。nodeport的工作原理就是将svc的端口映射到node的一个端口上,然后就可以通过nodeIP: NodePort来访问svc了。

svc-nodeport.yaml

kubectl create -f svc-nodeport.yaml

kubectl get svc svc-nodeport -n ns-test-xuq -o wide

通过浏览器访问: http://192.168.128.100:30002 访问对应的pod

3.5、LoadBalancer类型的svc

LoadBalancer和NodePort很相似,目的都是向外部暴露一个端口,区别在于LoadBalancer会在集群的外部再来做一个负载均衡设备,而这个设备需要外部环境的支持,外部服务发送到这个设备上的请求,会被设备负载之后转发到集群中。

3.6、ExternalName类型的Service

ExternalName类型的service用于引入集群外部的服务,它通过externalName属性指定一个服务的地址,然后在集群内部访问此service就可以访问到外部服务了。

创建svc-externalname.yaml文件

# 使用时 要调整缩进
apiVersion: v1
kind: Service
metadata:
name: svc-externalname
namespace: test
spec:
type: ExternalName # svc类型为ExternalName
externalName: www.aa.com # 使用ip也行

kubectl create -f svc-externalname.yaml

dig @10.96.0.12 svc-externalname.test.svc.cluster.local

四、Ingress

Ingress 概述

通过前面的学习,我们知道,service对外暴露服务的方式有两种:NodePort和LoadBalancer,但是这两种方式,都有一定的缺点。

首先NodePort方式的缺点是会占用很多集群的端口,那么当集群服务变多的时候,这个缺点就愈发明显。

其次LoadBalancer的缺点是每个svc都需要一个LB,浪费,麻烦,并且需要k8s之外的设备支出

基于它俩的情况,k8s提供了Ingress资源对象,Ingress只需要一个NodePort或者一个LB就可以满足暴露多个svc的需求,工作机制大致如下:

实际上,ingress相当于一个七层的负载均衡器,是k8s对反向代理的一个抽象,它的工作原理类似于nginx,可以理解为ingress里面建立了诸多规则,ingress controller通过监听这些配置规则并转化为nginx的反向代理配置,然后对外提供服务。

ingress: k8s中的一个对象,作用是定义请求如何转发svc的规则

ingress Controller: 具体实现反向代理及负载均衡的程序,对ingress定义的规则进行解析,根据配置的规则来实现请求转发,实现的方式有很多,如nginx、contour、haproxy等。

ingress的工作过程如下:

1、用户编写ingress规则,说明哪个域名对应k8s中的哪个svc,

2、ingress控制器动态感知ingress服务规则的变化,然后生成一段对应的nginx反向代理配置

3、ingress控制器会将生成的nginx配置写入到一个运行的nginx服务中,并动态更新。

4、到此为止,其实真正在工作的就是一个nginx,内部配置了用户定义的请求规则。

4.2、ingress的使用

创建 ingress-controller目录并下载控制器

mkdir -pv opt/ingress-controller && cd /opt/ingress-controller

wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/nginx-0.30.0/deploy/static/mandatory.yaml

wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/nginx-0.30.0/deploy/static/provider/baremetal/service-nodeport.yaml

kubectl apply -f ./

kubectl get pod -n ingress-nginx

kubectl get svc -n ingress-nginx

然后准备测试的pod,以nginx和tomcat为例及相应的svc

它俩的svc

创建http代理,如下:

ingress-http.yaml

kubectl create -f ingress-http.yaml

kubectl get ingress ingress-http -n test

kubectl describe ingress ingress-http -n test

192.168.1.112 nginx.service

192.168.1.112 tomcat.service

kubectl get svc -n ingress-nginx # 获取端口

浏览器访问 http://tomcat.service:31765

----

https代理

生成证书

openssl req -x509 -sha256 -nodes -days 365 -newkey rsa:2048 -keyout tls.key -out tls.crt -subj "/C=CN/ST=BJ/L=BJ/O=nginx/CN=haxuq.com"

创建密钥:

kubectl create secret tls tls-secret --key tls.key --cert tls.crt

创建ingress-https.yaml

kubectl create -f ingress-https.yaml

kubectl get ingress ingress-https -n test

kubectl describe ingress ingress-https -n test

浏览器访问: https://tomcat.haxuq.com:31235

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表