谷歌警告不要过度使用 JavaScript。这就是为什么此警告对于人工智能搜索优化至关重要。
- 过度依赖 JavaScript 会给人工智能搜索爬虫带来盲点。
- 据报道,人工智能搜索爬虫无法读取 JavaScript,从而限制了网站的可见性。
- 建议使用服务器端渲染和 HTML 优先开发。
Google 搜索关系团队最近的一次讨论强调了 Web 开发中的一个挑战:让 JavaScript 与现代搜索工具良好配合。
在 Google 最新的 Search Off The Record 播客中,该团队讨论了 JavaScript 使用量的增加,以及在不需要时使用它的趋势。
谷歌的搜索开发倡导者 Martin Splitt 指出,JavaScript 的创建是为了帮助网站与移动应用程序竞争,引入推送通知和离线访问等功能。
然而,该团队警告说,对 JavaScript 功能的兴奋可能会导致过度使用。
尽管JavaScript 在很多情况下都很实用,它并不是网站每个部分的最佳选择。
JavaScript 谱系
斯普利特将当前的格局描述为介于传统网站和网络应用程序之间的一个范围。
他说:
“我们正处于一种奇怪的状态,网站可以只是网站,基本上是在多个页面上呈现并链接的页面和信息,但它也可以是一个应用程序。”
他提供了以下 JavaScript 谱的示例:
“您可以在浏览器中查看公寓……它是一个网站,因为它提供诸如平方英尺、位于哪一层、地址是什么之类的信息……但它也是一个应用程序,因为您可以可以使用 3D 视图在公寓中漫步。 –
参见: 来自 Google 的 6 个 JavaScript 优化技巧
为什么这很重要?
Google 搜索倡导者 John Mueller 指出了开发人员过度依赖 JavaScript 的普遍趋势:
– 有很多人喜欢这些 JavaScript 框架,他们将它们用于 JavaScript 真正有意义的事情,然后他们会想,“为什么我不把它用于所有事情呢?”Ø
听着大家的讨论,我想起了一个学习我几周前报道过。根据这项研究,过度依赖 JavaScript 可能会导致人工智能搜索引擎出现潜在问题。
鉴于人工智能搜索爬虫的日益突出,我认为强调这次对话很重要。
虽然传统搜索引擎通常很好地支持 JavaScript,但在人工智能搜索时代,其实现需要更多考虑。
研究发现人工智能机器人在搜索爬虫流量中所占的比例越来越大,但这些爬虫无法渲染 JavaScript。
这意味着如果您过于依赖 JavaScript,您可能会失去 ChatGPT Search 等搜索引擎的流量。
有关的: Google 建议在初始 HTML 中包含产品标记。
需要考虑的事项
JavaScript 的使用和人工智能爬虫的局限性提出了几个重要的考虑因素:
- 服务器端渲染:由于 AI 爬虫无法执行客户端 JavaScript,因此服务器端渲染对于确保可见性至关重要。
- 内容可访问性:主要的AI爬虫,例如GPTBot和Claude,对于内容消费有不同的偏好。GPTBot 优先考虑 HTML 内容(57.7%),而 Claude 更关注图像(35.17%)。
- 新发展思路:这些新的限制可能需要重新评估传统的“JavaScript 优先”开发策略。
前进之路
随着人工智能爬虫对于索引网站变得越来越重要,您需要平衡人工智能爬虫的现代功能和可访问性。
以下是一些建议:
- 对关键内容使用服务器端渲染。
- 确保在初始 HTML 中包含核心内容。
- 应用渐进增强技术。
- 何时使用 JavaScript 需谨慎。
为了取得成功,请使您的网站适应传统搜索引擎和人工智能爬虫,同时确保良好的用户体验。
收听下面的完整播客片段:
特色图片:地面图片/Shutterstock