如何通过网站审核查找和修复 SEO 问题
阅读时间:13分钟
随着网站的发展,内容中大大小小的问题数量会激增。这是不可避免的,因为我们面临着挑战,无论是 CMS 限制、落后于新的 SEO 趋势,还是人为因素。无论出于何种原因,所有内容问题都应及时解决,以最大限度地减少它们对网站 SEO 造成的损害。
但是,除非您使用可以在几分钟内扫描整个网站并自动生成综合报告的工具,否则技术性 SEO 审核可能需要很长时间。为此,我们使用 SE Ranking 的网站审核来查看我们可以发现和修复哪些与内容相关的 SEO 问题。
对 SE Ranking 网站审核的期望
如果您在 SE Ranking 有帐户,其网站审计功能 只需单击一下即可检测您网站的技术 SEO 问题。一旦启动,审计将在后台运行,并以每分钟 500 页的速度根据 100 个参数检查您的网站。您可以以概览仪表板、问题报告和多个已抓取页面、链接和资源列表的形式获得结果。
SE 排名网站审计仪表板。
要查看您的网站是否存在与内容相关的 SEO 问题,您应该查看问题报告中的几个部分,您可以在其中访问受每个问题影响的页面的完整列表。现在让我们检查一下您可以检测和解决哪些问题。
滥用抓取和索引限制
您的网站中会有一些您希望在搜索结果中看到的页面,例如博客文章或产品页面,以及您不想在那里看到的页面,例如登录页面或网站搜索结果。要禁止搜索引擎机器人处理某些页面,请将页面级限制指令添加到:
robots 元标记。在 HTML 文件的头部添加<meta name=”robots” content=”noindex” />。此指令阻止所有 robots 索引该页面。
X-Robots-Tag。在给定 URL 的 HTTP 标头响应中添加X-Robots-Tag: noindex 或X-Robots-Tag: none。这些指令分别阻止机器人编制索引或同时阻止编制索引和抓取链接。
robots.txt 文件。 在您网站的根目录中,添加disallow: [path]。此指令向搜索机器人显示 厄瓜多尔 WhatsApp 负责人 哪些页面不应抓取。
抓取和索引限制可能会被错误地应用于错误的页面,您的 SEO 内容。相反,一些应该被阻止的页面可能会被忽略并意外进入索引。
阅读:搜索引擎如何排名
为了确保您的索引限制按预期工作,您应该定期查看被搜索机器人阻止的页面列表。如果对您的代码进行了任何全站范围的更改,则需要仔细检查索引限制。每次运行网站审核时,您都会在问题报告 的“抓取”部分中找到被机器人阻止的所有页面。
SE 排名网站审计机器人阻止的页面列表。
在报告的“抓取”部分,您将看到 robots.txt 文件阻止了多少页面的抓取,以及 robots 元标记或 X-Robots 标记阻止了多少页面的索引。点击“页面” 列中的数字可查看此类页面的完整列表。您可以在“已抓取页面” 部分单独检查和过滤。
定期进行 SEO 审核是防止小问题变成大问题的最佳方法。#SEO #technicalSEO
点击推文
如果您发现列出的某些页面不应该存在或缺少某些页面,请转到您的网站并修复这些页面的限制性指令。在修复这些问题之前,请记住 robots.txt、robots 元标记和 X-Robots-tag 中的指令如何相互关联。有两件事要记住:
您应该使用 robots.txt 文件中的 disallow 指令来限制网站的抓取流量,但您不应期望它会阻止您的网页被编入索引。如果其他网站链接到被禁止的网页,搜索引擎可以找到该网页并将其编入索引。
如果您使用 robots 元标记或 X-Robots 标记禁止索引某些页面,则不应在 robots.txt 文件中禁止这些页面。如果您禁止机器人访问这些页面,它们将无法读取您的 noindex 指令,因此,如果其他网站链接到这些页面,这些页面可能会被索引。
修复所有检测到的问题后,您可以重新启动审核,以查看旧问题是否已解决或是否出现了新问题。您可以随时手动重新启动审核。但如果您将其配置为按计划运行(每周一次或每月一次),您将永远不会错过任何关键问题。