WEB动态语言有很多,ASP,PHP,JSP等,之所以在标题中着重提到ASP,是因为目前市面上大多数的企业站点还是采用ASP来做的,这个语言因为学习的门槛较低,又有ACCESS的完美配合,所以是大多数程序员首选的企业站点语言。我们不在这篇文章中讨论ASP的安全性或技术层面的东西,我仅在这篇文章中分享最新学习到的一个,就是ASP网站的站内搜索功能对SEO的影响。
因为SEO对静态语言的收录有一定的优先(虽没有绝对性,但由于同样的配置上,静态页面的访问速度快于动态页面,所以从用户体验角度上,百度是优化收录和排名的),现在大多数在网络公司工作的程序员都开始接触SEO网络营销的概念,所以有些程序员在站点规划上会生成静态,但有个矛盾点,就是站内搜索,特别是对于一些产品或新闻信息比较多的站点,这个功能是至关重要的,由于数据的传输问题,无法做到绝对的全站静态,要么是伪静态,要么是用XML做为小型数据库进行筛选,但从本质上讲,还是动态的。
这种站内搜索页面产生的结果页面往往是重复程度很高,或相似性很高,不太理解这个意思的朋友,我举个例子:
比如淘宝网里有1000个电脑商品,然后搜索笔记本,或者搜索14寸笔记本,出来的结果差不多,这里仅仅是两个关键词在搜索,随着产品数据变大,可以搜索出相似结果的关键词也会越来越多,那么这些关键词搜索产生的结果页面,它们的相似性就极高,甚至有重复性,自然,百度是不喜欢这些页面的。
讲的只是一个不喜欢的概念,真正理解起来,从搜索引擎的原理上分析,我们会清楚地知道,互联网上每天的更新是巨大的,但百度就一个,他派出来的“蜘蛛”抓取页面和分析页面时,都需要时间,而由于这些页面要进行数据库的筛选,花费的时间是分析其他页面的几倍,等“蜘蛛”有耐心分析完后,又发现这些站内搜索产生的页面有很高的相似性,所以容易想象,百度不会因为你的站点产生了很多这种页面而觉得你的网站规模比较大,反之有负面的影响,因为你浪费了它的时间,并且关键是这些页面并未给你的站点带来多少的丰富内容。
那么既然如此,有没有办法处理这种情况呢?因为毕竟现在绝大多数网站都有这种站内搜索的功能,自然也存在这种弊端了。
我看了很多国内比较知名的SEO人士的文章和,他们也有提起这种情况,但至今还没有什么好的办法可以解决。
如果用robots来直接引导蜘蛛不去抓取这些页面,这一点上是可行的,但是我们要知道,来这些页面之前,蜘蛛是延着我们的站内结构一步步过来的,等这些页面时,受到ROBOTS的影响,就好像我们断了它的,这是个比喻,实际情况下,站内的权重需要传递,形成一个循环,需要断掉的话,让权重有来无回,有点类似太空中的“黑洞”。因此不管你用robots还是用其他一些手段,可以让蜘蛛不来抓取,但不能让权重做到合理的传递。
综上所述,站内搜索目前还是SEO工作者盘中的一块鸡肋,至少在目前的搜索引擎算法中还不能得到完美的解决。
不过SEO的技术在不断成熟,搜索引擎的算法也在日趋人性化,我们知道了本质的原理,虽然目前没有办决,但不代表无决。
推荐:
网友评论 ()条 查看