求教大佬,从外部 ssh 到 k8s 的 pod 里面,有什么方案么?
1
SoulSleep 334 天前
首先默认的网络方案是不支持的...我们有用大二层网络架构的 k8s 可以,pod 就像一个 vm 一样....
要不你开个 node port 把 ssh 给映射出去(不安全 很多平台支持 webshell... |
2
julyclyde 334 天前
首先容器里就别运行完整的操作系统
它也不拥有固定的 IP 地址 ssh 进去这个,一定是你的需求有问题 |
3
hicdn 334 天前 via Android
pod 里跑个 ttyd ,可以开认证选项,把端口映射出来,就可以在浏览器里执行命令了
|
6
HugeNature OP @julyclyde 我们的需求类似 kenvix ,用户需要进去 pod 做一些修改能快速地做一些验证。
|
7
buffzty 334 天前
1. 加个 wireguard 直通集群
2. k8s port-forward 临时建议第二种 长期建议第一种 第一种只能给后端负责人 |
8
julyclyde 334 天前
@HugeNature 你这种情况不应该用 k8s 而应该是一个长生命周期的服务器
|
9
HugeNature OP @hicdn 这个方案的确是一个可选项,但是 web terminal 体验不是很好,不能做太重的事情。
|
10
HugeNature OP @buffzty 1. 加个 wireguard 直通集群 这个方案可以详细解释下么?是将 wg 安装在 pod 里还是 host 上?
|
11
defunct9 334 天前
kubectl exec -it pod -- /bin/bash
|
12
HugeNature OP @defunct9 这个不是 ssh 哈。
|
13
happyxhw101 334 天前
@HugeNature 可以看看 k8s dashboard 里面是怎么实现的,应该是在前端实现了 kubectl exec -it xxxx -- sh
|
14
HugeNature OP @julyclyde 现状就是已经用了 k8s 了,没办法推倒,只能想办法解决 ssh 的问题
|
15
66z 334 天前
好像 kubeflow 的方案是 jupter
|
16
qilme 334 天前
平添麻烦,参考一下 okteto 的实现是每个容器加一个 ssh 服务器进去,然后做端口转发
https://www.okteto.com/docs/reference/ssh-server/ |
17
killva4624 334 天前
kubectl exec -it pod bash
把这层封装到前端做一个 Terminal |
18
buffzty 334 天前
@HugeNature wireguard 安在 node 上 你客户端也要安装一个 可以自己设置代理仅集群内流量 集群 dns 也可以用 本地跟集群全互通
|
19
defunct9 334 天前 1
容器里本来就没有 ssh ,非要跑一个干嘛,你的目的就是远程调试,那么启个 bash 接进来就是正解。你可以在你发起 ssh 的机器上配好 kubectl 不就行了。
|
20
ppto 334 天前
sidecar 感觉可以。
|
21
HugeNature OP @killva4624 还是裸的 ssh 的适用性更强,比如 terminal ssh ,用户用 vscode 连接 pod 等等
|
22
HugeNature OP @buffzty node 上安装 wg 的话,外面 ssh 最多到 host 上吧?进不到 pod 里应该
|
23
HugeNature OP @defunct9 需求就是要可以 ssh ,咱也没办法,只能想办法去实现
|
24
buffzty 334 天前
@HugeNature 我都跟你说了集群全互通 我都用了几年了
|
25
Frankcox 334 天前
client-go tool 下有 remotecommand ,你可以用 Go+前端 webshell 包装一下,实现类似于 ssh 的效果。
|
26
hicdn 334 天前 via Android
@HugeNature 那就在 pod 里跑一个完整系统,把 ssh 端口转发出来
|
27
HugeNature OP @buffzty 额,大佬可以解释下“集群全互通”么? 不是很理解这个概念。谢谢啦。
|
28
HugeNature OP @Frankcox 希望的是原生的 ssh ,用户可以用任何方式 ssh ,terminal ,vscode ,或者其他的 GUI 工具。
|
29
HugeNature OP @hicdn 那太重了,可以安装 sshserver ,开端口转发
|
30
xuzhzzz 334 天前
简单的方法就是部署一个 xxx 容器管理平台,里面 terminal 登录 pod 是很常见的功能
|
31
kindom 334 天前
K8S site: kubeflow -> codeserver
Client site: VScode -> k8s plugin -> kubeflow |
32
buffzty 334 天前
node1 ip 172.10.0.1 ,pod ip 10.80.1.0/24
node2 ip 172.10.0.2 ,pod ip 10.80.2.0/24 node3 ip 172.10.0.3 ,pod ip 10.80.3.0/24 client 连接 wg 到任意一个你设置的 node ( wg 转发节点) 此时 client 可以访问上面的所有 ip 也可以用集群 dns 比如 mysql.default.svc.cluster.local 需要通几个 node 就在那几个 node 上开 wg 如果 node2 开了 wg node3 没开 那么 10.80.3.0/24 这个网段你访问不了 |
34
aleimu 334 天前
这个还真可以的,就是镜像里需要启动 sshd 服务,并且 pod 要开 22 端口,密码的话随机生成或固定,这样方便开发者自己通过堡垒机登录定位问题, kubectl exec -it pod bash 只能运维人员用用, webshell 的话不好对接堡垒机还依赖浏览器环境
|
35
Kinnice 334 天前
集群:
1. pod 里面需要开 ssh-server ,cluster IP 即可 2. 然后再任意 node ,部署[可以物理机直接部署或容器部署] openvpn/wireguard 暴露出 nodePort ,配置好到 clusterIP 段的路由和 dns eg: https://github.com/helm/charts/tree/master/stable/openvpn 使用者: 1. 连接 openvpn/wireguerd 2. 使用 pod-ip/name 直接 ssh 即可 |
36
anubu 334 天前
一直在 autodl 租 GPU ,容器实例就是在容器里部署 sshd 端口映射到公网,当做一个虚拟机使用。所以你这里容器部署 sshd ,nodeport 批量暴露出来应该是没有问题的。虽然不符合所谓的最佳实践,但业务上的东西一般都是各种情况的 trade-off ,不能强制追求完美。autodl 也算正经商业化的业务,举例是说明这样实现肯定不能说是很差的选择。
|
37
Kinnice 334 天前
@Kinnice #35 还有一种就是使用者配置好 kubectl 然后通过 port-forward 把 pod 内部 ssh 端口映射到本地
https://kubernetes.io/docs/tasks/access-application-cluster/port-forward-access-application-cluster/ |
38
chronos 334 天前
如果是自己人用,简单点就 kubectl port-forward 将 pod 的 sshd 端口映射到本地。
如果是开放到外部使用,可以考虑使用 frp ,先部署一个 frps 并开放端口用于转发流量,然后每个 sshd 的 pod 启动时里面再启动一个 frpc 连接 frps ,使用 stcp 模式,配置文件中的 name 和 secretKey 要输出给用户。用户侧 frpc 使用 stcp 连接 frps ,secretKey 要相同。这样就可以将 sshd 的端口映射到本地,然后本地的 vscode 之类的工具就可以使用映射过来的本地端口连接。 stcp 的配置参考: https://gofrp.org/zh-cn/docs/examples/stcp/ |
39
nilai 334 天前
1. node port 方式
2.大二层方案,calico 支持 3. 最简单的,更改外部连接机器的路由表, |
40
HugeNature OP @nilai 2.大二层方案,calico 支持 这个方案可以介绍下么?谢啦
|
41
nilai 334 天前
步骤比较多, 一时半会还讲不清楚, 不过你可以尝试搜索 calico bgp 关键字 应该会有很多资料的
|
42
ETiV 334 天前 via iPhone
- ssh 到跳板机
- 跳板机 authorized_key 里,配置 command - 可以在这 command 里加 kubectl exec bash 命令,当然,大概需要做一个前置的 TUI 程序,让人选择想要进入的 pod 和 container |
43
standchan 334 天前
把集群的连接信息保存到本地.kube/config ,然后 kubectl exec -it <pod-name> /bin/sh
|
44
LyleLaii 334 天前
@kenvix 确实有这种需求😂
@HugeNature 之前我在公司搭的 jupyterhub 就有业务说想用 IDE 更方便,我就搞过一个小玩意作 ssh 转发。 整体逻辑是 pod 内都需要运行 sshd ,然后通过一个统一的服务进行认证,再将 ssh 的进行代理转发到指定 pod 。这个统一 服务用一个 nodeport 或者用 ingress 代理都行,可以参考下 https://github.com/LyleLaii/jupyterhub-ssh-proxy |
45
julyclyde 334 天前
@HugeNature 那你试试把 pod 设置为 host 模式吧
至于浮动 IP 你只能自己想办法了 |
46
bigfei 334 天前 via Android
calico bgp 配好就行,只是可能需要你们的网管配合开一下 bgp 配置
|
47
wWjd5V5L0636B5YV 334 天前
@defunct9 这不是 docker 命令么?
|
48
zhoujinjing09 334 天前
有现成工具 https://containerssh.io/v0.4/ ,缺点是 ssh 是通过 k8s api server 转发 kubectl exec 的,流量大的话可能会影响集群稳定性
|
49
2n80HF9IV8d05L9v 334 天前
如果只是临时的, 可以直接找个跳板, ssh -fNL, ssh -fNR
|
50
superchijinpeng 334 天前
Tailscale 也行
|
51
wangbin11 334 天前
我们的方案是,直接 k8s 跑个 wiregaurd 的 pod ,然后映射一个 udp 端口出去通过 vpn 连接到内部,有需要可以回复我,我发你方案
|
52
Daath 333 天前
ingress-controller 修改 tcp-config 开放对应的端口直接映射到内部 pod 相关的 svc 的端口,如果还有负载均衡,那 lb 上开放 svc 对应的端口,应该就可以直通某个 pod 吧
|
53
yougg 333 天前
干嘛非要 pod 里面做 server 端才行, 开一堆洞不好收拾烂摊子
把思路打开 反弹 shell 一样能搞定任务. https://gist.github.com/yougg/b47f4910767a74fcfe1077d21568070e |
54
killerirving 333 天前
看看这个? 用 kubectl 插件实现了一个 ssh ProxyCommand 的功能
https://github.com/ciiiii/kube-ProxyCommand ``` Host develop-container HostName develop-container User root Port 22 IdentityFile /path/to/private/key ProxyCommand kube-proxyCommand --name=podName --namespace=podNamespace --port=%p ``` |
55
smilingsun 333 天前
可以参考一下 Coder ,用 Tailscale 实现 p2p 到 pod
> When possible, we establish direct connections between users and workspaces. Direct connections are as fast as connecting to the workspace outside of Coder. When NAT traversal fails, connections are relayed through the coder server. All user <-> workspace connections are end-to-end encrypted. https://coder.com/docs/v2/latest/networking#networking |
56
tudou1514 333 天前
ingress-controller 支持添加 80 、443 以外的 tcp 和 udp 协议暴漏,可以试试
|
57
Masoud2023 333 天前
就必须得要拿 ssh 进吗?
如果不要其他特性,比如端口映射或者 scp ,感觉倒是可以自己写一个。 |
58
byte10 333 天前
不太合理的的需求 请用不太合理的方式实现,管它是否安全,用了再说吧。
|
59
relife 333 天前
开个新的 ssh 用户,然后 chsh 修改登录直接 exec 到容器里面
|
60
xabclink 333 天前
https://ki.xabc.io 可以满足你的需求
|
61
tohearts 333 天前
remote ssh 的需求是什么,如果是方便开发代码,直接使用 okteto 开源版本就行。 直接在 pod 内部开发,本地 <-->pod 实时同步文件,并且提供 remote terminal.
|
62
wbuntu 333 天前
可以考虑在 pod 里起一个 sidecar 容器,比如用 gost ,可以提供一个基于 websocket 的代理,本地 gost 客户端连接到这个 sidecard 容器(可以走 nodePort 、也可以用 ingress 在 7 层转发),ssh 时可以用 ProxyCommand 连接本地代理端口就行
ssh-client -> gost-local ( socks5 )-> gost-local ( ws )-> ingrss-controller -> gost-remote ( ws ) -> ssh-server |
63
winson030 306 天前
vscode 的 ssh container 是不是更好? 开箱就用
|
64
yunshangdetianya 178 天前
@buffzty 说的很对,就是这个道理
|