SEO名词百科 - 投稿申请 - 关于小六 - 网站地图 不懂SEO,不懂网站优化从何入手?到重庆SEO【小六】SEO教程自学网,小六在这里狂甩SEO干货,助你自学成才!
当前位置:SEO首页 > SEO答疑 > 正文

网站页面内容过长,也会导致页面不收录?

时间:2017-06-16 09:35:00 来源:站长学院 作者:小六SEO 阅读:
   最近院长收到一个非常典型的抓取优化例子,整理一下分享给各位,各位站长们谨记不要出现相同的情况。
   站点反馈:
   网站主体内容都是js生成,针对用户访问,没有做优化;但是网站特针对爬虫抓取做了优化,且将图片也直接做了base64转化;然而优化后发现内容却不被百度收录
   页面质量很好,还特意针对爬虫做了优化,为什么内容反而不收录了呢?
 
   百度工程师分析
   1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k;
   2、 站点优化后将主体内容放于最后,图片却放于前面;
   3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。
 
   百度工程师建议
   1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取。
   2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长。
   3、针对爬虫爬取做优化,请将主题内容放于前方,避免抓取截断造成的内容抓取不全。

   本文转载至站长学院,感谢阅读。

   其他SEO内容
   如何检查自己的网站是否被降权

(责任编辑:小六SEO)

顶一下
(8)
88.9%
踩一下
(1)
11.1%