2 个小时的工作量把 Discourse 的备份全部切换到新的服务器上。
最后的一个步骤就是把 DNS 给改了。
把老服务器上的服务停掉。
[root@vps-14bde4ea discourse]# ./launcher stop app
x86_64 arch detected.
+ /usr/bin/docker stop -t 600 app
app
[root@vps-14bde4ea discourse]#
这样可以确保所有的数据都是从新服务器上来的。
再最后最后的一步就是确定服务器上的附件是上传到 S3 上,并且 URL 的路径是正确的。
如果一切没有问题,那等一段时间把老的服务器删掉就算完成整个迁移过程。
Kokomi
2
请问如果给论坛用的 cdn 的话,访问 s3也会走 cdn 吗,避免 s3被刷下载量。
我们500同时在线的论坛,会把8c16g cpu 吃满并且很卡,也在准备迁移了,不过我们一直没用 s3。
还有 s3的价格贵吗😂
S3 是个存储,用 CDN 的话应该在前面再配一个 Amazon CloudFront。
这样访问 S3 的内容会从 Amazon CloudFront 走。
S3 的价格应该还好,我觉得价格上还是合理的。
CDN 前面你可能还会 CDN 套 CDN,CloudFlare 在 CloudFront 前面再套一层。
整个流量其实 CloudFlare 会帮你缓存不少。
Kokomi
4
也可以直接用 CF r2 ,好像就能直接用 CF cdn。
我这边上传的图片加缩放后的,总共才10g,但是访问量大,每天 cdn 走70g 流量,不知道对图片的请求数有多少,按每张3m 算可能刚好在 r2的免费计划之内。
hex
5
你们图片的数量和附件内容大概是我们的 3 倍。
我们用 AWS 是因为我们还有不少自定义的程序在上面跑,不少开发的东西用的是 AWS 的 SDK,这个没有办法换。
因为,CloudFlare 帮我们缓存了不少,并且这些上传的内容基本上又不会改。
所以 AWS 上面我们的流量只有几百M 一天。
CF 上的流量 24 小时差不多在 156GB 吧,现在。
1 Like
luobo
6
我去,这种负载对服务器的压力这么大吗,要频繁读写本地文件?
Kokomi
7
按照官方论坛的说法 4c8g可以支持700在线用户 我们就是搞不明白为什么
可能是服务器太垃圾了 也可能是我们没用s3
hex
9
官方的说法我感觉通常有点乐观。这个配置应该仅仅满足跑起来吧。
要跑顺畅,最好翻一倍。
Kokomi
10
对
目前的服务器 Intel(R) Xeon(R) Gold 6133 CPU @ 2.50GHz
1 线程测试(单核)得分: 821 Scores
8 线程测试(多核)得分: 6879 Scores
Kokomi
12
目前是换了单核差不多 但是16c16g的服务器,先试一个月。然后准备用r2存图片。
hex
14
说的是我们的网站吗?
如果是的话,应该是不会受到这次部署的影响。
因为网站的图片是存在 CDN 上的,用的不同的域名,这个域名也用了 CF 的缓存。
这次更新没有改这个配置。
是不是可能 DNS 改了,CF 对一些内容需要进行刷新,然后缓存还没有更新?这个可能性有。
copy
16
这么夸张嘛?我现在才2G运行的也挺好的啊,那我换成4G能支持多少人同时在线?
hex
18
我感觉可能还是网络问题和刷新问题。
F12 强制刷新了下,整体的载入时间应该在 2 秒左右。
图片载入走的是的 CDN,这个内容没有改过,是不是因为改了 DNS 导致了 CF 缓存在刷新或者什么情况就不太清楚了。
顺便看了下网络带宽的消耗。
实在是没有什么问题。
Kokomi
20
125/月 16c16g 125g(估计sata)40M 香港
美国和欧洲的服务器会有更大的带宽,更好的性能