日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

kunernets中怎么使用helm安装tiller

發布時間:2023/12/15 综合教程 33 生活家
生活随笔 收集整理的這篇文章主要介紹了 kunernets中怎么使用helm安装tiller 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

今天就跟大家聊聊有關kunernets中怎么使用helm安裝tiller,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。

helm的安裝參考:

Helm由客戶端命helm令行工具和服務端tiller組成,Helm的安裝十分簡單。 下載helm命令行工具到master節點node1的/usr/local/bin下,這里下載的2.9.1版本:

wgethttps://storage.googleapis.com/kubernetes-helm/helm-v2.11.0-linux-amd64.tar.gz
tar-zxvfhelm-v2.11.0-linux-amd64.tar.gz
cdlinux-amd64/
cphelm/usr/local/bin/

為了安裝服務端tiller,還需要在這臺機器上配置好kubectl工具和kubeconfig文件,確保kubectl工具可以在這臺機器上訪問apiserver且正常使用。 這里的node1節點以及配置好了kubectl。

因為Kubernetes APIServer開啟了RBAC訪問控制,所以需要創建tiller使用的service account: tiller并分配合適的角色給它。 詳細內容可以查看helm文檔中的Role-based Access Control。 這里簡單起見直接分配cluster-admin這個集群內置的ClusterRole給它。創建rbac-config.yaml文件:

apiVersion:v1
kind:ServiceAccount
metadata:
name:tiller
namespace:kube-system
---
apiVersion:rbac.authorization.k8s.io/v1beta1
kind:ClusterRoleBinding
metadata:
name:tiller
roleRef:
apiGroup:rbac.authorization.k8s.io
kind:ClusterRole
name:cluster-admin
subjects:
-kind:ServiceAccount
name:tiller
namespace:kube-system
kubectlcreate-frbac-config.yaml
serviceaccount/tillercreated
clusterrolebinding.rbac.authorization.k8s.io/tillercreated

安裝tiller
helm init --service-account tiller --skip-refresh

問題

到這一步就出現問題了,跟之前參考的博主寫的不一樣了。因為我使用的是國內的docker源,所以gcr.io/kubernetes-helm/tiller這個鏡像訪問不到,所以查看pod的時候

kubectlgetpods-nkube-system
顯示:
NAMEREADYSTATUSRESTARTSAGE
tiller-deploy-6f6fd74b68-rkk5w0/1ImagePullBackOff014h

pod的狀態不對啊。作為剛入門的小白,開始摸索解決

解決思路

1、查看pod的事件

kubectl describe pod tiller-deploy-6f6fd74b68-rkk5w -n kube-system
顯示

Events:
TypeReasonAgeFromMessage
-------------------------
WarningFailed52m(x3472over14h)kubelet,test1Error:ImagePullBackOff
NormalBackOff2m6s(x3686over14h)kubelet,test1Back-offpullingimage"gcr.io/kubernetes-helm/tiller:v2.11.0"

顯然是獲取gcr.io/kubernetes-helm/tiller:v2.11.0鏡像失敗

2、手動拉取鏡像

docker search kubernetes-helm/tiller

cockpit/kubernetesThiscontainerprovidesaversionofcockpit…41[OK]
fluent/fluentd-kubernetes-daemonsetFluentdDaemonsetforKubernetes24[OK]
lachlanevenson/k8s-helmHelmclient(https://github.com/kubernetes/h…17
dtzar/helm-kubectlhelmandkubectlrunningontopofalplinew…16[OK]
jessestuart/tillerNightlymulti-architecture(amd64,arm64,ar…4[OK]
hypnoglow/kubernetes-helmImageprovidingkuberneteskubectlandhelm…3[OK]
linkyard/docker-helmDockerimagecontainingkuberneteshelmand…3[OK]
jimmysong/kubernetes-helm-tiller2
ibmcom/tillerDockerImageforIBMCloudprivate-CE(Commu…1
zhaosijun/kubernetes-helm-tillermirrorfromgcr.io/kubernetes-helm/tiller:v2…1[OK]
zlabjp/kubernetes-resourceAConcourseresourceforcontrollingtheKub…1
thebeefcake/concourse-helm-resourceconcourseresourceformanaginghelmdeploym…1[OK]
timotto/rpi-tillerk8s.io/tillerforRaspberryPi1
fishead/gcr.io.kubernetes-helm.tillermirrorofgcr.io/kubernetes-helm/tiller1[OK]
victoru/concourse-helm-resourceconcourseresourceformanaginghelmdeploym…0[OK]
bitnami/helm-crd-controllerKubernetescontrollerforHelmReleaseCRD0[OK]
z772458549/kubernetes-helm-tillerkubernetes-helm-tiller0[OK]
mnsplatform/concourse-helm-resourceConcourseresourceforhelmdeployments0
croesus/kubernetes-helm-tillerkubernetes-helm-tiller0[OK]

這么多鏡像,看描述,我看中了
fishead/gcr.io.kubernetes-helm.tiller mirror of gcr.io/kubernetes-helm/tiller 1 [OK]
意思是fishead/gcr.io.kubernetes-helm.tiller 這個鏡像是 根據
mirror of gcr.io/kubernetes-helm/tiller Build而成

接下來去dockerhub上確認下

dockerhub.jpg

果然是我們需要的鏡像,然后查看版本:

tag.jpg

下載鏡像:
docker pull fishead/gcr.io.kubernetes-helm.tiller:v2.11.0
改tag
docker tag fishead/gcr.io.kubernetes-helm.tiller:v2.11.0 gcr.io/kubernetes-helm/tiller:v2.11.0
查看本地鏡像

images.jpg

3、重新部署

萌新這步折騰了很久,參考網上方法,有試過
刪除tiller
helm reset -f
初始化,重新部署tiller
helm init --service-account tiller --tiller-image gcr.io/kubernetes-helm/tiller:v2.11.0 --skip-refresh

查看pod,還是錯誤的狀態
kubectl get pods -n kube-system

NAMEREADYSTATUSRESTARTSAGE
tiller-deploy-6f6fd74b68-qvlzx0/1ImagePullBackOff08m43s

啊啊啊啊啊啊啊啊啊啊啊啊啊啊啊啊啊啊啊,崩潰了。為什么還是顯示拉取鏡像失敗呢。(;′⌒`)

冷靜下來想想,是不是配置文件中寫了總是獲取倉庫鏡像呢

編輯下配置文件
kubectl edit deployment tiller-deploy -n kube-system

apiVersion:extensions/v1beta1
kind:Deployment
metadata:
annotations:
deployment.kubernetes.io/revision:"2"
creationTimestamp:2018-11-16T08:03:53Z
generation:2
labels:
app:helm
name:tiller
name:tiller-deploy
namespace:kube-system
resourceVersion:"133136"
selfLink:/apis/extensions/v1beta1/namespaces/kube-system/deployments/tiller-deploy
uid:291c2a71-e976-11e8-b6eb-8cec4b591b6a
spec:
progressDeadlineSeconds:2147483647
replicas:1
revisionHistoryLimit:10
selector:
matchLabels:
app:helm
name:tiller
strategy:
rollingUpdate:
maxSurge:1
maxUnavailable:1
type:RollingUpdate
template:
metadata:
creationTimestamp:null
labels:
app:helm
name:tiller
spec:
automountServiceAccountToken:true
containers:
-env:
-name:TILLER_NAMESPACE
value:kube-system
-name:TILLER_HISTORY_MAX
value:"0"
image:gcr.io/kubernetes-helm/tiller:v2.11.0
imagePullPolicy:IfNotPresent
livenessProbe:
failureThreshold:3
httpGet:
path:/liveness
port:44135
scheme:HTTP
initialDelaySeconds:1
periodSeconds:10
successThreshold:1
timeoutSeconds:1
name:tiller
ports:
-containerPort:44134
name:tiller
protocol:TCP
-containerPort:44135

果然找到了鏡像拉取策略:
imagePullPolicy: IfNotPresent
看看官網怎么說的

https://kubernetes.io/docs/concepts/containers/images/
Bydefault,thekubeletwilltrytopulleachimagefromthespecifiedregistry.However,iftheimagePullPolicypropertyofthecontainerissettoIfNotPresentorNever,thenalocalimageisused(preferentiallyorexclusively,respectively).
#默認情況是會根據配置文件中的鏡像地址去拉取鏡像,如果設置為IfNotPresent和Never就會使用本地鏡像。
IfNotPresent:如果本地存在鏡像就優先使用本地鏡像。
Never:直接不再去拉取鏡像了,使用本地的;如果本地不存在就報異常了

按道理來說,我這個配置沒問題啊,為什么不先檢索本地的鏡像呢,難道是我后來下載的原因。不管了,我先改成never
imagePullPolicy:Never

保存下,查看pod狀態
tiller-deploy-f844bd879-p6m8x 1/1 Running 0 62s

總結

以上是生活随笔為你收集整理的kunernets中怎么使用helm安装tiller的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。