找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 181|回复: 0

网站收录完美解决的SEO必备手段

[复制链接]

该用户从未签到

发表于 2019-3-23 16:49:01 | 显示全部楼层 |阅读模式

您需要 登录 才可以下载或查看,没有账号?立即注册

×
谈及网站收录问题,实际上是困扰很多SEO和站长一大难题。因为我们想从搜索引擎获得流量前,必须要解决搜索引擎收录网站的问题,不收录何来排名呢?
         
        所以,在网站搭建好或一篇文章新发布后,我们最新网看到的就是让这篇文章下一秒就收录,这个我们称之为秒收。而在秒收这个场景下我们都要做足哪些工作呢?下面欢欢仿站网和你一起交流下关于网站收录的完美解决办法。
         
        内容页中内容本身的质量属性
         
        大多数网站绝对不会缺少内容页这个因素,而网站内所有内容的质量也绝对了你网站的整体质量。这里我要解释一下,一个以内容为主的网站。每天都会发布很多的文章,就像我的博客一样,我每天都会写很多的SEO文章。
         
        写着写文章的同时,我要考虑的如下几点因素:
         
        标题与内容: 标题写的大致意思是什么,内容就要围绕这个意思去写。
         
        需求满足度: 搜索引擎的用户是看了标题点击进入我的这篇文章的,那我必须要解决这类用户的需求,让他们通过看这篇文章真正的解决自己的问题。
         
        文章排版: 但光内容满足需求,但主体内容的可读性不是很友好也不行。毕竟用户的选择太多了,为了避免让用户离开我在字体大小、颜色、段落和文字间距以及添加链接、表格、图片都做了一些的修饰。让文章尽可能的看起来美观。
         
        周边元素: 除了文章页的主体内容外,我还要考虑我周边的一些元素,例如很多网站在文章页都会有一个“最新文章”的板块。不同板块间都有着一定的作用。下面我列举一下:
         
        相关文章板块:推荐的都是与当前文章主题有关联的文章,不仅能增加当前网页的关键词密度、还能提升这些文章被爬虫抓取的概率以及文章权重的提升。毕竟链接在爬虫抓取和链接计算上都有作用;
         
        最新文章板块:对新发布的文章在全部的文章页中进行推荐,大大的提高了新发布文章的抓取概率以及收录概率,这个建议推荐的是10条;
         
        热门文章板块:所谓热门文章,即当前网站或类目点击量较高的文章,点击量高说明需求度大,在每一个文章页给这些文章链接,是通过链接传递权重的最佳方式,能够显著提升这类页面的排名。
         
        编辑推荐板块:编辑推荐可能会掺杂广告类文章,也会有一些对行业十分重要的文章,这增加了我们对文章曝光程度的自定义纬度,可以更好的灵活运用。
         
        随机文章推荐:所谓随机,即在每生成一个网页时,从其他品类中随机调取出来的文章。这对于SEO来说是交叉链接的做法,如果随机推荐的机制是网页每次刷新这里调取的文章都不一样的话,还能提升网页的更新频率。
         
        其他:当然大范围上都是这些推荐逻辑,根据不同企业的平台不同,技术能力的不同。也许还会有其他,但这里我想强调一点的是与当前网页主题关联越近的应该多调取,和当前文章主题不相关或弱相关的,以少、精为主。
         
        原创度: 如果你能原创的完成每一篇文章,那最好。如果不能就要尽量的保证文章的语句通顺、上下段落意思连贯。让用户读起来千万别上一段大江山河,下一段细雨绵绵。
         
        关于飓风算法: 百度推出飓风算法意指打击“恶劣”的采集行为,这里要重点关注恶劣二字。所谓恶劣是不仅仅采集了,排版也不好、内容也不连贯,更不能解决搜索用户的需求。完全机械化的文章。所以正常的采集行为,随受人唾弃,但搜索引擎本身并不会惩罚。只要你本着为用户提供更加优质、精准的内容。你就没问题。
         
        网页的访问速度如何影响收录?
         
        网页的打开速度,对收录的影响也是极为关键的。首先要收录之前要有爬虫抓取,爬虫抓取是有耗时的,搜索引擎爬虫针对网站进行抓取,都是有配额的。假设在时间上的配额是10分钟,那么你网站的访问速度是50毫秒,也就是说10分钟 除以 50毫秒 = 200次抓取,但如果你把访问速度提升至25毫秒呢?那就意味着爬虫在同样的时间配额纬度上会抓取400次。整整提高了一倍,我们这里单点去考虑的话,是不是收录也会提升,排名也会提升。自然流量也就提升了?
         
        额外的,网页的打开速度还影响着用户的体验。之前百度有提到在移动端,一个网页的打开速度超过3秒,就会被百度认为是垃圾页面。试想一下,我们谁在百度找东西会愿意持续的等下去呢?如果你打开几个网站都要等一会,那么你会说百度的体验不好还是那个网站不行呢?
         
        提升访问速度的方法有很多,下面我列举一些,但不限于这些:
         
        gzip压缩: 对你的当前网页进行压缩,从而减少网页自身的大小;
         
        代码精简: 将源代码中一些可以整合到一起的内容进行,例如html网页内写的一些js代码、css代码等,完全可以通过js和css文件引入的形式来解决,而引入文件本身,越少越好。还有像一些网页的大量注释代码,没必要的就删除,有用的就留下。
         
        cdn加速: 采用cdn加速技术,对你网站的ip节点进行加速,以此提高网站速度;
         
        amp/mip: 启用网页加速技术,对整站源代码进行改造,从而提升网页整体加载时长;
         
        缓存机制: 所谓缓存机制,就是将用户浏览过的元素进行缓存,再发生请求时直接从用户的浏览器中读取,不用再请求服务器了。这样能提升网站的真题加载时长。就像你网页的logo图片,是全站网页都有的一张图片,当用户从首页打开时,缓存机制就把这张图缓存到了用户的浏览器中,用户通过首页点击其他页面时,就直接从用户浏览器中读取了,不会在从服务器中再次发生请求。
         
        Etag的使用: Etag是http协议中,来标记一个网页是否发生变化的记号串。通俗点说,当网页每次发生变化时Etag的值都会变,那对于爬虫而言,他知道Etag没有变就不会再抓取了,如果发现Etag的值变了,那就进行抓取。这样一来,不仅节省了爬虫的抓取资源,还能减少服务器被请求的次数,从而提升服务器性能,服务器性能提高了,自然网页打开速度就会提升。
         
        当然,提升加速的还有针对程序的优化、数据库的优化以及服务器的一些设置、配置等,这里就不一一阐述了,你先把上面我提到的做好,就在这方面已经做得很不错了。服务器、程序、数据库这些要么有专人负责维护,不然咱们大多数seo也没能力搞这些。
         
        链接提交让网站收录更快一些
         
        我们先来拆解爬虫的“抓”、“取”二字,这两个字代表了两个动作,抓可以理解为爬虫在互联网上找寻更多的网址信息,而取可以理解为是爬虫对抓到的网址进行访问取数据。从而形成抓取。那么爬虫的机制本身就是在不断的发现网页,读取网页的过程。链接提交的本质就是让爬虫省去了发现网页这个环节。从而不仅能提升爬虫的工作效率,也能提升爬虫取我们网页数据的效率。
         
        下面以百度为例,分享目前较为常见的3种链接提交方式:
         
        1、sitemap.xml文件百度收录提交工具
         
        sitemap.xml文件的提交方式是比较传统的链接提交方式至今已经有十几年的历史了,这点不单单是百度支持,其他搜索引擎也都支持。针对于sitemap的提交方式如何设置,请参考文章:网站有必要做sitemap.xml地图吗。
         
        2、自动推送百度收录提交工具
         
        自动推送,是在你网站中,添加一个段代码,这段代码百度搜索资源平台已经给出,就像给你的网站添加统计代码一样简单。如下图是我的百度自动推送的收录提交代码。
         
        网站收录完美解决的SEO必备手段
         
        你将上述代码全站希望被百度收录的网页源代码中即可。
         
        自动推送的推送逻辑是每当你网站中加了这个代码的网页被访问时,这个网页就会推送给百度,然后爬虫来抓取收录。
         
        3、主动推送百度收录提交方式
         
        主动推送,是你通过技术能力实现将文章主动的提交给百度。说白了你可以理解为是把手动提交这个功能自动化了。
         
        百度搜索资源平台给出了代码实现的参考示例,如下图:
         
        网站收录完美解决的SEO必备手段
         
        如上图,可以看出不同程序语言的实现示例,以及提交成功会返回什么等等。
         
        自动提交百度收录的区别是什么?
         
        上面提到的3个自动提交百度收录的入口都有哪些区别,我们一定要都设置吗?
         
        首先是一定要都进行设置的。具体区别如下:
         
        sitemap文件提交百度收录
         
        这个文件里有你所有的url文件,百度每次访问会全部检索。例如你的一个网页,没有收录,自然没有人访问,那么自动推送不生效,手动提交你也忘了。主动推送可能早就提交过没被收录。这时候,爬虫访问你的sitemap文件时,就会将这些没被收录的历史网址重新抓取,就会获得收录的机会。
         
        另外,像360、搜狗、bing、google等都支持这种方式,等于做了一个sitemap就提交给很多搜索引擎网址,等待收录了。
         
        自动推送提交百度收录
         
        自动推送的方式,和sitemap一样,只不过是针对更加热门的网页,搜索引擎的来源访客不访问你的网页,不代表直接访问或其他来源的人不访问呀,更何况你自己还会访问呢不是?
         
        有时候,我们自己也会忽略哪些内容是受欢迎的,不重点优化。但访客骗不了我们。大多数人频繁访问的网页一定是受欢迎的。通过自动推送的方式给百度收录提交入口,让百度蜘蛛抓取。也很不错的。
         
        主动推送提交方式
         
        主动推送的方式,其主要针对的还是我们的文章页/详情页,毕竟这类页面第一时间产生后,我通过自动推送就给了百度,不仅能保证实时性,还可以在有大型网站采集我网站时,提过提交网址的时间,来证明我的是原创的。
         
        所以如上的三种方式都各有千秋,但话说回来,能多一次把网址提交给百度收录的机会,我们为什么不珍惜呢?收录了的在提交一次也无所谓,没有收录的多提交几次,不也是增加收录的机会吗?
         
        如上就是我们解决网站收录的核心方法。本文内可能说的不全,但整体上我们要从三点出发:网页的速度、网页的综合质量、以及像链接提交这种辅助搜索引擎的东西。如果你有其他的补充欢迎在留言区进行补充,当然有问题也可以在留言区通过回复进行留言。
回复

使用道具 举报

网站地图|页面地图|文字地图|Archiver|手机版|小黑屋|找资源 |网站地图

GMT+8, 2024-11-23 12:22

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表