V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  star7th  ›  全部回复第 18 页 / 共 55 页
回复总数  1089
1 ... 14  15  16  17  18  19  20  21  22  23 ... 55  
2022-11-28 20:34:36 +08:00
回复了 v423 创建的主题 程序员 Tauri 热度那么高 因为国外一致性问题比较少吗?
我不认可你说的 Tauri 热度高。很明显 Electron 更高
当前来说,Electron 的生态好得多,很多东西有现成的解决方案。如果不是对文件体积极度敏感,都建议用 Electron 。
2022-11-28 16:15:26 +08:00
回复了 googleplus 创建的主题 分享发现 你们的博客运行多少年了,清理收藏夹的发现
十年 https://blog.star7th.com 但是我不在意有没有人看,也不会花太多力气写东西。就是让它存在着激励我输出一些东西,仅仅是一些而已。
就是大硬盘集群扛着。无它。
成本肯定有,但是没有你想象的高。现在的硬盘还是比较便宜的。更大的支出在于流量。存数据没太多成本,读数据,流转数据,流量贵。
因为流量比存储更贵,所以我折腾出了另一种降低流量成本的法子。https://www.v2ex.com/t/877718?p=2
2022-11-27 21:41:12 +08:00
回复了 61162833 创建的主题 云计算 腾讯云 CDN 要按请求数付费了,开始收割
要不要考虑换个 cdn 服务商?
https://www.dfyun.com.cn/ 不计请求数,同时流量单价比腾讯便宜一半。
可以试下。
多年 nodejs 开发人员路过。别折腾什么走代理的方式。设置 llinux 代理可能会影响到其他程序访问网络。
这个命令放在笔记里记着。每到一个环境,无论是本机还是服务器,都用得上。
直接在命令行运行 npm config set registry https://registry.npmmirror.com


不要再折腾!
不要再折腾!
别听其他乱七八糟的建议。
鉴于你能提出这个问题,估计是个新手。对新手来讲,直接执行我上面说的命令就是最省事的方式。也不用去追究什么原理。
没啥不良影响,你可以这么用。
第一种 await 的方式顺序执行,一个执行完成再执行另一个。
第二种方式是,并发执行,等到最后一个结果执行完毕后,再按顺序返回执行结果数据。

一个是顺序执行,一个是并发执行,当然快了很多。
2022-11-22 17:31:31 +08:00
回复了 fenglayting 创建的主题 程序员 2023 PHPer 路在何方?
我的转型路线供参考。我在几年前是职业 php 开发。现在已转前端好几年了,也会做 nodejs 开发, 基本可以算个全栈吧 。

不过大多数 phper 都很难复制我的路线。因为我开发开源项目 https://github.com/star7th/showdoc 可以大量累积前端开发经验(这个项目的重心在前端),要转是很容易的。而据我所知大部分 phper 只是会一点前端,真要写 js 和 css 会巨痛苦。

如果你对后端更感兴趣,则可以考虑转 java 和 go 。无论转型前端还是后端,我觉得都需要累积足够的经验,否则你在新的赛道会落后于人。建议可以搞搞开源项目。

我现在依然还会做一些 php 开发。旧框架需要维护,新框架都统一用 laravel 系列,坚决不碰 swoole 这种写法诡异的框架(有异步和协程的需求我会用 node 来写)。

我对 php 要求性能低,够用即可。高性能的场景我会用 nodejs 处理。实际上, 我的另一个项目 https://www.dfyun.com.cn/ 就是用 nodejs 写的 , 已经经得起生产环境大流量高并发的考验 。 这种高密集 io 型应用,php 搞不定或者需要花巨大成本才能搞定。

对于市场,我也很迷惑。按道理说,小型创业公司用 laravel 系列是非常方便的,可以快速成型。性能也不算很差,有优化空间。用户量三十万以下的场景理论上都能很好应对。而要更大的话,应该公司已经赚钱了,这个时候有技术团队,做啥都行。所以理论上 php 应该有足够施展空间。但是我看到非常多的小公司或者大公司,更多用 php 来做管理后台这种无关紧要的场景。
也许我孤陋寡闻,尚不提国外情况吧,毕竟国外那么多国家,也许存在一些我不知道的软件项目。

就国内而言,你如果要求必须开源自部署,要求免费,那么,showdoc 是最好的选择之一了 https://github.com/star7th/showdoc

其他的方案,可能都需要你另外付出额外很多时间精力成本。(付费或者二次开发)。
2022-11-21 13:52:56 +08:00
回复了 op351 创建的主题 云计算 求推荐提供 gpu 计算租赁的平台
国内的带宽巨贵。国内如果想做到不限带宽,基本上就是天价要求了。便宜不到哪里去。便宜的就会受限制
@villivateur 我就是开发者,我只是碰得少硬件。如果你不考虑像我这种软件开发工程师(同时是硬件小白),那你的受众会非常非常小
2022-11-21 09:20:38 +08:00
回复了 hzcer 创建的主题 分享创造 做了一个快速(300M+)、不贵($1/TB)的文件下载分发服务
我再看了下,你这个仅仅做反向代理,不做内容缓存或者托管啊。这样算下来,源服务器的成本和带宽都可能成为瓶颈了。
你多进程反向代理我源站,速度也是取决我的源站速度。而且流量层面都是要走一遍我的源站,我得付两次流量费用。
再者,下载文件不能直接弹出来,需要等然后再点击一下,用户体验没那么友好。
感觉链接 wifi 和配置还是不够方便。可以参考一些智能硬件的配置方式,对新手比较友好。
价格的话,我倒不是很敏感。
内置电池还是有一点必要性,毕竟如果只能放在插座旁边,则便携性大大降低。但好像电池又撑不了多久。
2022-11-21 09:01:18 +08:00
回复了 hzcer 创建的主题 分享创造 做了一个快速(300M+)、不贵($1/TB)的文件下载分发服务
思路很好,国外的机器都能多线程到这个速度,确实让人眼前一亮。
搭车宣传下,如果有需求国内网络的便宜 cdn 需求可以看看这个 https://www.dfyun.com.cn
速度没有 lz 的文件下载分发快,不适合大型文件。但是国内线路稳定可靠,可用作各种小文件加速。
2022-11-18 10:46:48 +08:00
回复了 ggp1ot2 创建的主题 程序员 小团队的相关文档如果想部署成网页应该用什么方案?
建议使用 showdoc https://github.com/star7th/showdoc 开源免费私有部署。
2022-11-18 09:08:26 +08:00
回复了 daimaosix 创建的主题 分享发现 腾讯云 CDN 新增按 HTTPS 请求数收费规则
dfyun 云 不收取请求费用
而且流量费还比腾讯云低,可以看一下

https://www.dfyun.com.cn
2022-11-16 12:06:18 +08:00
回复了 coldmonkeybit 创建的主题 程序员 请教一下, nodejs/express 是如何处理多个请求的
2022-11-16 11:40:54 +08:00
回复了 233373 创建的主题 程序员 各位程序员都自己部署了那些似有服务?
说到这个,我也有不少经验。我搭建的服务有些是自用,有些也会提供公开使用。

搭建了 showdoc , 用来写文档 https://github.com/star7th/showdoc

搭建了 k8s + rancher , 作为各种服务的承载体。

搭建了 gaoyixia 内网穿透服务 https://www.gaoyixia.com

搭建了 htq 用作轻量级任务队列服务 https://github.com/star7th/htq

搭建了消息推送服务 https://push.showdoc.com.cn

搭建了截图服务 https://www.showdoc.com.cn/screenshot

搭建了 v2ray 用作翻墙

搭建了 jellyfin 用来看电影

搭建了 frp 用来远程控制和内网穿透

搭建了 nextclound 私有云

还有好几个不方便在这里公开的小服务。
2022-11-16 11:26:45 +08:00
回复了 coldmonkeybit 创建的主题 程序员 请教一下, nodejs/express 是如何处理多个请求的
我没有认真去钻研底层,大多情况下只是一个使用者。但根据我对 nodejs 使用经验,大概是:
在同一个进程里,请求确实是异步处理的。await 挂起一个后,cpu 会处理另一个。但由于很快,所以你可以理解为“接近是同时处理的” 。对不同的两个用户来讲,同时访问 node 接口并没有什么明显延迟感觉 。
如果你是追求非常高的”同时“,那可以多进程处理。比如 eggjs 就可以起多个 work 进程。
好像新出一种特性,可以更细粒度在单进程里模拟多进程,减少进程切换成本。但是没太细了解。总之,如果你要追求高度同步处理,就起多个进程就行。
1 ... 14  15  16  17  18  19  20  21  22  23 ... 55  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2618 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 38ms · UTC 10:24 · PVG 18:24 · LAX 02:24 · JFK 05:24
Developed with CodeLauncher
♥ Do have faith in what you're doing.