一、 对 Google 如何处理 JavaScript 的理解度提升
我们向受访的 SEO 专家提出了一些基础性问题,旨在了解他们对 Google 抓取、渲染和索引 JavaScript 机制的理解水平。
- 理解盲区明显缩小: 仅有 7.1% 的受访者表示他们不理解 Google 如何处理 JavaScript(相比去年下降了 10%)。
- 专业认知显著增强: 拥有“良好”或“高级”理解水平的 SEO 专家比例合计升至 66.4%(去年为 50.4%)。
- 基础认知减少: 认为自己“只懂皮毛”的 SEO 比例有所减少。
结论: 调查结果显示,自 2024 年报告以来,整个 SEO 行业对 JavaScript 爬取和渲染的专业认知水平有了显著提高,这可能归功于更多解释性资源的出现和传播。
二、 令人担忧的盲区:对 LLM 爬虫渲染能力的认知
这是本次报告中新增的一个关键问题,因为大型语言模型(LLM)驱动的爬虫正日益成为搜索领域的关键参与者。然而,该问题的调查结果令人警醒:
- 不确定性高: 几乎三分之一(29.8%)的受访 SEO 专家表示**“完全不清楚”**哪些 LLM 爬虫会渲染 JavaScript。
- 错误认知普遍: 另有三分之一(33.9%)的受访者认为列表中**“没有”**任何 LLM 爬虫会渲染 JavaScript。
- 关于 Gemini 的困惑: 在这个爬虫列表中包含 Gemini(基于 Googlebot 机制)。但只有略高于三分之一(35.9%)的受访者正确选择了它会渲染 JavaScript。
- 这与前面 66.4% 的 SEO 专家声称对 Google 爬取机制有“良好”或“高级”理解的结论形成了鲜明对比。
- 其他 LLM 爬虫选择: 只有少数人选择了其他爬虫,例如:
- ChatGPT-User (7.1%)
- ClaudeBot (5.4%)
- GPTBot (4.7%)
- PerplexityBot (4.7%)
核心洞察: 调查清晰表明,绝大多数 SEO 社区成员目前并不确定哪些 LLM 爬虫会渲染 JavaScript,哪些不会。这揭示了在新的搜索技术领域,行业认知存在着严重的脱节和巨大的提升空间。