文章
这篇来自 Cloudflare 的文章深入探讨了其隐私代理产品的性能优化,特别是针对 Privacy Pass 令牌的双重验证中约 40 毫秒的延迟。调查始于像 Jaeger 这样的追踪工具,随后通过全面的指标确认了问题的影响范围。在排除健康检查延迟和连接池争用等初步假设后,该团队受到科学方法的启发,发现了根本原因:纳格算法和延迟 ACK 之间意外的交互。 这种情况的发生是由于单个 `memcached` 命令在 `TcpStream` 上的多个小 `write_all` 调用导致了数据包碎片化。由于 Linux 服务器上的 `CONFIG_HZ=1000` 设置,初始的“get”命令部分发送后,会触发来自内核的 40 毫秒延迟 ACK,然后才会传输命令的其余部分。 解决方案包括重构代码以使用 `BufWriter<TcpStream>`,它在用户空间中缓冲小写入,并在 `flush` 时将完整的 `memcached` 命令作为单个 TCP 数据包发送。 这一修复成功地将双重验证延迟降低到 1 毫秒以下,显著改善了用户的浏览体验和隐私特性。
Cloudflare 的这篇文章详细介绍了答案引擎 Perplexity AI 如何采用规避性抓取技术来访问网络内容,即使存在明确的 `robots.txt` 和 WAF 规则。Cloudflare 观察到,Perplexity 从其声明的用户代理切换到通用浏览器身份(例如 macOS 上的 Google Chrome),轮换未列出的 IP 地址,并更改 ASN 以绕过封锁。为了证实这一点,Cloudflare 使用新建的、未索引的域名进行了实验,这些域名具有严格的禁止爬取指令,但 Perplexity 仍然能够检索到详细内容。文章将这种行为与 OpenAI 等负责任的机器人运营者进行了对比。OpenAI 透明地声明其爬虫,尊重网站偏好,并遵守已建立的互联网信任原则。Cloudflare 强调,这种隐蔽抓取破坏了内容所有者的控制权和对网络的信任。最后,文章概述了 Cloudflare 的机器人管理系统如何自动检测和阻止这些未声明的活动,从而为客户提供保护,并倡导行业范围内的标准,如 Web Bot Auth 和 `robots.txt` 的扩展。
本文概述了 Cloudflare 在 2025 年 6 月 12 日因第三方云供应商故障导致重大故障后,对其 Workers KV 服务进行的重大架构改革。最初依赖多个第三方对象存储提供商,该系统面临一致性问题和操作复杂性,导致暂时转移到单个提供商,但该提供商随后也出现故障。重新设计的 Workers KV 现在主要利用 Cloudflare 的内部分布式数据库,该数据库在多个集群中分片以实现可扩展性和持久性,并引入 KV 存储代理 (KVSP) 来管理连接和路由。一个关键的创新是混合存储方法,其中 KVSP 智能地将小对象路由到分布式数据库,将大对象路由到 Cloudflare R2。文章详细解释了多层一致性机制,包括竞争性写入/读取、后台协调和基于版本元数据的爬虫程序。这些机制对于维护跨双后端的数据一致性至关重要,并符合 AP/PA-EL 一致性模型。文章还详细介绍了阶段性部署和读写一致性退化的发现,以及通过对抗性测试解决该问题,展示了一种强大的系统弹性方法。