V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  dzdh  ›  全部回复第 45 页 / 共 88 页
回复总数  1756
1 ... 41  42  43  44  45  46  47  48  49  50 ... 88  
@chendy 那有个问题啊。我要是用混合 cdn 那接入算谁呢
2022-08-10 17:30:53 +08:00
回复了 Chaconne 创建的主题 程序员 有没有合适的短信平台可以个人使用群发的
smsbao.com
个人可发 300 条完全可以
@hailaz

怎么注册路由实现 /a/b 和 /b 是同一个方法呢。定义两个路由吗?
那不就成了 group("/zh-cn").get('/b', handle) group("/").get('/b',handle) 了
2022-08-09 16:29:30 +08:00
回复了 FenixVu 创建的主题 Linux 服务器开机负载 50%,咋定位问题啊?
htop
2022-08-09 16:29:27 +08:00
回复了 FenixVu 创建的主题 Linux 服务器开机负载 50%,咋定位问题啊?
htp
@FanError
@wangtian2020

hh 就是不想用 nginx
@crysislinux 对。现在已经在想直接写死了,因为真的实在是。。应该没有啥站点会支持全世界语言吧.
2022-08-09 10:41:39 +08:00
回复了 iblessyou 创建的主题 问与答 有冇 V 友写过 elasticsearch6 版本的集群部署文章
https://www.elastic.co/cn/what-is/open-x-pack

不收费了..emmm

那安装一下 xpack 插件
2022-08-09 10:39:52 +08:00
回复了 iblessyou 创建的主题 问与答 有冇 V 友写过 elasticsearch6 版本的集群部署文章
xpack 是收费插件。
./bin/elasticserch-plugin install x-pack 可免费试用
2022-08-09 10:12:15 +08:00
回复了 zhengqiaoyin 创建的主题 程序员 绿野仙踪的实践有人做过吗?想更详细地了解一下
@0bing 看了一下文,想验证一个 idea ,然后人工转单。hhhhhh 。
自动搬砖吗?做量化?
2022-08-06 18:52:16 +08:00
回复了 zhuzhibin 创建的主题 问与答 老哥们讨论下大文件上传方案呀
@admpubcom iframe post formdata 需要跨域嘛?

https://help.aliyun.com/document_detail/31925.html
步骤 3
2022-08-04 12:27:23 +08:00
回复了 cxytz01 创建的主题 Go 编程语言 关于 cookie,关于 Golang gin 框架。
2022-08-03 09:41:06 +08:00
回复了 2bad4u 创建的主题 全球工单系统 用腾讯云 cos 对象存储下了 100G 的文件,收费 40 元
@GreatAuk
https://cloud.tencent.com/document/product/436/6240

新注册有,180 天有效期。19 年 03 月 21 日之后好像是不免费了。
2022-08-03 09:26:20 +08:00
回复了 2bad4u 创建的主题 全球工单系统 用腾讯云 cos 对象存储下了 100G 的文件,收费 40 元
用七牛吧。每月头 10g 免费
@yc8332
还有就是性能突发实例(套路云)成本相对便宜点。所以现在是动态的。
@yc8332

对对对。就是这个。

比如说可能是这样,假设 200 个 staticworker 也好动态也罢。有没有一种可能是一旦到达 200 的后续请求立刻返回一个 code 叫 waiting, sid=hashid ,然后前端在一直轮询。lua 能不能把请求暂存,等 worker 空闲了再放过去。前端轮询。这样总比 nginx-fpm 然后一直无限等最后返回 504 好吧。
@gengchun

设想的是 go 可以做个 fcgiclient 充当 nginx 的角色连接 php-fpm ,做整体的限流控制,无论大流量还是小流量都可以灵活控制。而且还可以开协程每毫秒每秒去刷 fpmstatus 获取当前的 worker 数量。

动态 fpmworker 是因为 php-fpm 配置本身是 pm=dynamic 。秒杀不是无时不刻二十四小时都在秒杀,隔三岔五有一次。争抢型实例平常一两百个 worker 足够了,有秒杀它自己扩到五六百。因此它是动态的。

想实现,不让用户等待,当前在流量高(没有空闲的 worker )就直接返回友好提示。不浪费一个 worker 也不多收一个请求。
@gengchun

我没说过 [nginx 实现 [不] 了] 而是在寻找 nginx 怎么做的方案。

lua 当然可以读 redis 。但是现在问题是想实现 nginx 接收并处理的请求数和 fpm 的 worker 数量能保持同步,即有几个 fpm workernginx 就只能接收并处理几个请求。而新的问题是,fpm 的 worker 是动态的,要在 lua 中 ps aux|grep fpm|wc -l 吗?
1 ... 41  42  43  44  45  46  47  48  49  50 ... 88  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3175 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 40ms · UTC 10:51 · PVG 18:51 · LAX 02:51 · JFK 05:51
Developed with CodeLauncher
♥ Do have faith in what you're doing.