当前位置:首页 > 数据库 > 正文

k8stargetport的简单介绍

k8stargetport的简单介绍

各位老铁们好,相信很多人对k8stargetport都不是特别的了解,因此呢,今天就来为大家分享下关于k8stargetport以及的问题知识,还望可以帮助大家,解决大...

各位老铁们好,相信很多人对k8stargetport都不是特别的了解,因此呢,今天就来为大家分享下关于k8stargetport以及的问题知识,还望可以帮助大家,解决大家的一些困惑,下面一起来看看吧!

文章目录:

-02-10:k8smongo,yaml如何写?

要查看 metrics-rver 或资源指标 API (metrics.k8s.io) 是否已经运行,请运行以下命令 kubectl get apirvices 创建一个命名空间,以便将本练习中创建的资源与集群的其余部分隔离。

主要有YAML、Operater两种,先从YAML开始可以更好的理解细节(Operater最终也是生成的yml文件)。

找到calico.yaml文件,添加两行 完整的像这样 然后 kubectl apply -f calico.yaml部署即可。调用 kubectl get pods -n kube-system发现calico-node都启动正常。我在k8s集群中了一个busybox deployment。因子为3。

nginx.yaml -- nginx.yaml,修改name 可看到两个pod分别部署在不同的worker上。一个pod,可以ping通另一个pod 以216130 ping 2103 为例:所以报文达到tunl0设备时,报文格式如下,源目的ip不变,因为ipip模式,所以mac已经没了。

一个比较简单的指定kubt的 cgroup driver 的方法就是在 kubeadm-config.yaml 加入 cgroupDriver 字段 我们可以直接查看configmaps来查看初始化之后集群的kubeadm-config配置。当然因为我们需要的版本高于20并且使用的就是systemd,因此可以不用再重复配置。

K8S的各种IP和Port

1、它是pod网络的IP,是每个POD分配的虚拟IP,可以使用 kubectl get pod -o wide 来查看。

2、②:ip和port匹配不上KUBE-CLUSTER-IP 的ipt,断是访问的本地,KUBE-NODE-PORT链。 ③:KUBE-NODE-PORT链后,断访问端口在 KUBE-NODE-PORT-TCP ipt规则中,因此KUBE-MARK-MASQ链。 ④:KUBE-MARK-MASQ链,对数据做mark标记 后续流程跟clusterIp一样,此处就不在阐述。

3、从客户端到 ClusterIP:Port 的报文都会被重定向到 Proxy Port,Kube-Proxy 收到报文后,通过 Round Robin (轮询) 或者 Session Affinity(会话亲和力,即同一 Client IP 都走同一链路给同一 Pod 服务)分发给对应的 Pod。当然,新版本的k8s开始基于 ipvs来替换iptables 了,但是形式和iptables是类似的。

Linux里面k8s里面kind:rvice代表?

K8s rvice可以理解为对一组Pod的抽象。类似于Nginx能够把请求转发 的 对应的服务上。2 Service作用 1 pod使用时因某些问题重启,从而导致pod 的IP发生变化,会导致旧的IP不能用,影响用户对使用。

k8s采用附加组件(CoreDNS)为集群提供DNS服务,会为每个服务创建DNS记录,CoreDNS只为Service和Pod创建DNS记录。kubernetes强烈推荐采用DNS方式.例如,如果你在 Kubernetes 命名空间 my-ns 中有一个名为 my-rvice 的服务, 则控制平面和 DNS 服务共同为 my-rvice.my-ns 创建 DNS 记录。

一个Service由一组Pod组成,这些Pod通过Endpoints暴露出来,Endpoints是实现实际服务的端点。换句话说,rvice和pod之间的联系是通过endpoints实现的。

K8S-volume存储之configmap

ConfigMap顾名思义,是用于保存配置数据的键值对,可以用来保存单个属性,也可以保存配置文件。 ConfigMaps允许你将配置构件与映像内容解耦,以保持容器化应用程序的可移植性。configmap 可以从文件、目录或者 key-value 字符串创建等创建 ConfigMap。也可以通过 kubectl create -f从描述文件创建。

Docker中有volume的概念。在Docker中,volume是container中的一个目录。Volume没有生命周期的概念,volume中的数据只有储存在本地磁盘这一种形式。Kubernetes的volume具有明确的生命空间。Volume生命周期比pod中运行的container长。Container重启之后,volume的数据仍会保留。

顾名思义,用来存配置的Map,可以存单个配置或者配置文件,在 POD 中我们可以通过环境变量来访问单个配置和配置文件,后者一般会被 mount 到 Pod 的一个 Volume 上,这样我们在跑 Spark on k8s 的时候,可以将一些配置放在 ConfigMap 中,和容器镜像解耦。

可以仅创建一个存储卷,然后将 YouTrack 持久化所需的四个路径,通过 subPath 挂载到该卷的不同子路径中。

K8S支持的卷类型很多,主要分为分布式文件、ConfigMap和本地文件这几种,其中本地文件支持:hostPath和local(从11开始出了Beta版本,编写本文时目前K8S最新版本是13了)。

用户生命了PVC,并且该PVC是绑定的,则只要用户需要,绑定的 PV 就属于该用户。用户通过在 Pod 的 volume 配置中包含persistentVolumeClaim来调度 Pod 并访问用户声明的 PV。

k8sskywalking

由于Apache SkyWalking Kubernetes默认的方式是采用的ClusterIP,我们需要改为NodePort方式。在skywalking-kubernetes/chart/skywalking/templates下找到oap-svc.yaml文件,修改其中的配置,添加targetPort和nodePort。如果仅仅用于演示skywalking。本步骤可以跳过不。

健康 检测接口用于检测应用的 健康 状态,在K8S中,使用Readiness和Liveness分别来探测应用是否就绪和是否存活,如果未就绪或者未存活,K8S会采取相应的措施来确保应用可用。如果我们应用未定义好相应的 健康 检测接口,K8S就无法断应用是否正常可用,整个应用对我们来说就是黑匣子,也就谈不上应用稳定性了。

Skywalking是分布式的应用程序性能监视,专为微服务,云原生架构和基于容器(Docker,K8S,Mesos)架构而设计,它是一款优秀的APM(Application Performance Management),包括了分布式追踪,性能指标分析和服务依赖分析等。

Rancher:用来项目部署,可实现动态扩容缩容容器。部署ker时,需要在服务器上有相关服务的镜像。普罗米修斯:ker、k8s,需要结合Cadvisor,Grafana使用。Cadvisor:虚拟机数据采集,包括cpu,服务等的运行数据。Grafana:数据可视化面板,在普罗米修斯中展示Cadvisor数据。

Zipkin欠缺APM报表能力,产品升级完善快,社区活跃,埋点无侵入也失去了一些灵活性。kywalking 是一个国产开源框架,年由个人吴晟(华为开发者)开源 , 年加入Apache孵化器,skywalking是分布式的应用程序性能监视,专为微服务、云原生架构和基于容器(Docker、K8s、Mesos)架构而设计。

关于k8stargetport的内容到此结束,希望对大家有所帮助。

最新文章