周二工具提示–浏览器,网站和搜索引擎索引–第3部分

我们所看到的以及我们如何提供纠正它的指导

因此,我们仅使用浏览器以及对Google和Bing索引的高级查询,结合一些简单的网站站长工具帐户审核,就发现了一些机会。这些工具应可用于每个网站(注意:如果您没有设置Bing网站管理员工具,请先完成此操作,否则您将丢失免费的网站数据资源)并且可以对其进行设置在任何平台上相对容易。您可以使用浏览器发现的内容以及索引查询本身不需要任何技术上的努力。

与其说写什么,不如说 Part 1Part 2 如果您错过了它们,那么我将简单地让您阅读它们。因此,为了前进,我们将寻找最佳方法,以提供有关解决各种机会的指导。

XML站点地图问题,特别是涉及通用博客启用平台上的预先存在的功能时,可能会让人头疼。这是因为有许多事情是通过插件处理的,老实说,这些插件并不总是提供我们想要的灵活性。在这种情况下,要确保被标记为“ noindex”的页面不会显示在站点地图文件中并不是一件容易的事,因为这两个功能很可能是由不同的插件控制的,而彼此之间的设置不可见。要解决此问题,您可能需要使用独立的站点地图生成器,并与详细的爬网进行一些比较,以详细地标识包含“ noindex”命令的页面。实际上,我非常喜欢使用爬网并手动构建XML网站地图。我个人使用Excel来生成每个URL的个人XML记录,然后通过复制/粘贴将其迁移到打开和关闭XML标签之间的记事本文档中,然后另存为UTM-8格式。我发现这给了我更多的控制权来定制我最喜欢的XML标记信号<priority> 和 <changefreq>。现在,此过程确实存在一个缺点,即添加URL时,您实际上必须不断对其进行更新,但是,如果您构建正确的Excel模板,则可以以相当简化的方式对其进行管理,尤其是在策略上使用“连接”时功能如下图所示:

工具提示
大多数抓取工具都会在您在此处看到的两部分设置中为您提供URL结构。我喜欢用 视觉搜索引擎尖叫的青蛙 作为这些类型的爬网的辅助工具,它们既可以拆分上面的Excel示例中所示的URL,又可以通过robots.txt文件或通过robots元标记来标记当前标记为“ noindex”的所有页面,以便于轻松过滤。

至于过度冗余的博客分类(是的,我注意到以前的帖子被标记为“博客”类别),我们需要清理它,并且通过清理,我的意思是简单地将其删除并转移与博客首页相关的页面。这是应该使用301重定向完成的操作。更简单的方法是使用一条规则,查找“ / blog / category / blog / *”的网址格式,然后触发301重定向回“ / blog /”。这立即消除了潜在重复的主要领域。加上随着时间的推移所建立的任何价值,将被合并为所有博客文章(博客主页面)的真实规范来源。这可以通过大多数重定向规则管理器插件完成,也可以直接通过网站htaccess文件完成。

所有这些清理工作的最后一步是审核网站,发布这些更改,确定到301目录类别的所有持久链接,并在适当时删除或更正这些链接。与为搜索引擎讨厌的主动301重定向URL衬里相比,这为网站提供了更整洁的页面覆盖范围和内部链接结构。尤其是,我们观察到Google的几个实例,尽管在看到站点仍在主动链接到旧URL的情况下进行了301重定向,但仍将URL保留在其索引中。虽然这看起来像是“只是另一个障碍”,但我认为这是正确的选择。如果您决定主动301重定向URL,则网站上的职责还应该是清理所有指向该旧URL的链接引用,并将它们重新指向新的解析URL。同样,上面提到的爬虫也可以帮助识别这一点。

作为一个“老派”白帽SEO,我发现我对工具的采用总是落后于许多同行,这可能是因为我是在这一切都在发展并且您想发现事情的时候才晋升的关于您的站点,您必须构建它们或与IT部门一起开发它们。我们距家用日志文件分析器已经走了很长一段路,并且只要不替代用于SEO的整体分析,那么现在可用的许多工具也很棒。 搜索引擎优化确实涉及几个核心因素:上下文(内部链接,页面到短语映射等),内容(对用户有利,但内置有针对性的SEO短语),可索引性(不浪费机器人时间和提供智能信号),最后,只需建立一个SEO和可用性齐头并进的网站。

我的最后一个“提示”是,任何不遵循那些导致排名快速增长的SEO核心原则的事情,都可能会成为垃圾邮件(例如,购买链接,关键字填充等),应进行严格分析。 。没有人可以保证1ST 排名,而又不愿意“走到黑暗的一面”,通常,廉价的SEO服务将利用这些和其他肮脏的技巧来节省时间,但是当网站受到惩罚和/或更糟糕时,将其全部摘牌,您“保存”与便宜 搜索引擎优化供应商 与试图使您的业务重回正轨的心痛相比,这将是什么。因此,正确构建它并通过关注您网站的真实基础和长期实现SEO的真正长期利益。 好的SEO 会按照你的方式来的。