Category: SEO问题集锦

  • SEO理解错误,SEO三大误区–送给有SEO需要的老板CEO们

      最近几天其实是很烦躁的,我接的一个SEO项目因为沟通问题和一些对方对SEO理解误区的问题上出现了很大的矛盾,我想,SEO其实是一项策略性的工作,总有人说SEO人员太拿自己当回事了,但是我要说,SEO真的关系到整个公司的沟通和技术问题,SEO进入中国已经快10年了,我不想看到这么多的中国企业还是不知道SEO是什么具体该怎样执行下去,或者听到说“不就是给网站做个小技术吗,用不用占用那么多人啊!”这样的话,真心好桑心啊!   我今天看了王通老师的一篇博客,顿时豁然开朗,我第一次看王通老师的博客,但是他里面的观点我多数是非常认同的,比如他提到一个“关键词爆破法”策略,虽然我以前不知道这个名字,但是同样的做法我去年 时候已经用到自己的网站上了,这真的是不谋而合的,看来SEO相通之处还是有很多。写这篇SEO误区也是看到他写的误区,觉得太有同感了。写下来纪念一下。  SEO是什么?是关键词排名?是小技术?还是外链?推广?看到这里,有没有人觉得是其中的哪一样?  误区一:SEO不是关键词排名  前期SEO的概念可能停留在一些个人或小团队接单时保证多少指数的关键词多久做到第几名的状态。从而误导了很多中国企业者,但是SEO绝对不是单纯的关键词排名。如果SEO是将每个关键词一个一个排名到首页,那付出的劳动和得到的回报绝对不是成正比的,推理下去如果SEO是这样绝对不会走到今天这种SEO热的场面。  误区二:SEO不是发外链  同上一个误区,要想关键词一个一个的排名上去,他的做法一定是发布和购买大量外链,这种做法确实有效,也让一些个人和小团队尝到了甜头,但是请不要说这是SEO,SEO的投资回报率远远比这个做法高。 误区三:SEO不是技术  SEO不会编程,不会写代码,不会PS,它为什么是技术?技术总要会一些什么吧?很多程序员会嘲笑SEOer不会编程,也有很多美工嘲笑SEOer不会PS,还有人嘲笑SEO不知道什么是PR,这个我也会嘲笑~总之,我认为,SEO是偏重于策划的,每个人有每个人的想法和创意,SEO无所谓对和错,没有固定的规矩。 谨以此文献给正在招聘SEO或者有意招聘SEOer的企业和老板。

  • 产品的筛选条件url该怎样优化?

    刚刚看了ZAC老师的博文,老师写了一篇关于B2C网站的通病——产品筛选条件页面改怎样有效的屏蔽? 产品筛选条件生成的页面多数都是没有太大用处而且没有排名能力的,我们平时都想着怎样让搜索引擎收录我们的页面,现在要讨论怎样让搜索引擎不要收录某些页面了。虽然zac老师在博文里说没有非常完美的办法来解决产品的筛选条件页面,但是博文中列举了很多方法来基本解决这个问题,相信给大家的参考意义也很大的,下面一一列举ZAC老师说的方法。 一是将不想收录的URL保持为动态URL,甚至故意越动态越好,以阻止被爬行和收录。但是,搜索引擎现在都能爬行、收录动态URL,而且技术上越来越不是问题。虽然参数多到一定程度确实不利于收录,但4、5个参数通常还可以收录。我们无法确认需要多少参数才能阻止收录,所以不能当作一个可靠的方法。而且这些URL接收内链,又没有什么排名能力,还是会浪费一定权重。 第二个方法,robots禁止收录。同样,URL接收了内链也就接收了权重,robots文件禁止爬行这些URL,所以接收的权重不能传递出去(搜索引擎不爬行就不知道有什么导出链接),页面成为权重只进不出的黑洞。 连向这些URL的链接配合nofollow也不完美,和robots禁止类似,nofollow在Google的效果是这些URL没有接收权重,权重却也没有被分配到其它链接上,所以权重同样浪费了。百度据称支持nofollow,但权重怎么处理未知。 将这些URL链接放在Flash、JS里也没有用,搜索引擎已经可以爬行Flash、JS里的链接,而且估计以后越来越擅长爬。很多SEO忽略了的一点是,JS中的链接不仅能被爬,也能传递权重,和正常连接一样。 也可以将过滤条件链接做成AJAX形式,用户点击后不会访问一个新的URL,还是在原来URL上,URL后面加了#,不会被当成不同URL。和JS问题一样,搜索引擎正在积极尝试爬行、抓取AJAX里的内容,这个方法也不保险。 还一个方法是在页面head部分加noindex+follow标签,意即本页面不要索引,但跟踪页面上的链接。这样可以解决复制内容问题,也解决了权重黑洞问题(权重是可以随着导出链接传到其它页面的),不能解决的是浪费蜘蛛爬行时间问题,这些页面还是要被蜘蛛爬行抓取的(然后才能看到页面html里的noindex+follow标签),对某些网站来说,过滤页面数量巨大,爬行了这些页面,蜘蛛就没足够时间爬有用页面了。 再一个可以考虑的方法是隐藏页面(cloaking),也就是用程序检测访问者,是搜索引擎蜘蛛的话返回的页面拿掉这些过滤条件链接,是用户的话才返回正常的有过滤条件的页面。这是一个比较理想的解决方法,唯一的问题是,可能被当作作弊。搜索引擎常跟SEO讲的判断是否作弊的最高原则是:如果没有搜索引擎,你会不会这么做?或者说,某种方法是否只是为了搜索引擎而采用?显然,用cloaking隐藏不想被爬行的URL是为搜索引擎做的,不是为用户做的。虽然这种情况下的cloaking目的是美好的,没有恶意的,但风险是存在的,胆大的可试用。 还一个方法是使用canonical标签,最大问题是百度是否支持未知,而且canonical标签是对搜索引擎的建议,不是指令,也就是说这个标签搜索引擎可能不遵守,等于没用。另外,canonical标签的本意是指定规范化网址,过滤条件页面是否适用有些存疑,毕竟,这些页面上的内容经常是不同的。 目前比较好的方法之一是iframe+robots禁止。将过滤部分代码放进iframe,等于调用其它文件内容,对搜索引擎来说,这部分内容不属于当前页面,也即隐藏了内容。但不属于当前页面不等于不存在,搜索引擎是可以发现iframe中的内容和链接的,还是可能爬行这些URL,所以加robots禁止爬行。iframe中的内容还是会有一些权重流失,但因为iframe里的链接不是从当前页面分流权重,而只是从调用的那个文件分流,所以权重流失是比较少的。除了排版、浏览器兼容性之类的头疼问题,iframe方法的一个潜在问题是被认为作弊的风险。现在搜索引擎一般不认为iframe是作弊,很多广告就是放在iframe中,但隐藏一堆链接和隐藏广告有些微妙的区别。回到搜索引擎判断作弊的总原则上,很难说这不是专门为搜索引擎做的。记得Matt Cutts说过,Google以后可能改变处理iframe的方式,他们还是希望在同一个页面上看到普通用户能看到的所有内容。 以上文字摘自zac老师的博客seo每天一贴。 马可波罗网上周五的时候也被google降权,我猜测也是因为网站内容的问题,一周前我发现网站一类搜索页面全部没有结果,造成了非常多的页面相似甚至完全相同,解决这一问题不是一朝一夕的事,我只能将此类页面全部写到robots协议里屏蔽掉。另一方面,网站生成了大量静态页面,其中有一类静态页面包括大量404页面,这也可能是被降权的原因之一。最后还有一类关键词带特殊符号的搜索结果页面,URL不能正常读取,也是造成大量404页面。 通过上面几点的分析,google这次更新对网站降权也就情有可原了~  

  • 从豆瓣源码看google analytics设置(二)

      最近几天真是忙昏头了!本想接着写豆瓣google分析的妙用,结果一拖就拖了这么多天,还惊奇地发现多了这么多评论,介都是哪位好朋友请来的托儿啊!让这个小博客顿时热闹起来啊!谢谢各位留言者,废话不多说,接着上次写。   写到makepolo用手工方法把混起来的流量来源分开,这个方法非常繁琐,现在只是把流量比较大的关键词分出来,一下小的流量就不能分出来了,所以这种方法在以后网站流量大了以后是不可行也不准确的。现在我们来看看豆瓣是怎样利用google analytics精确划分各类流量的。 首先贴上豆瓣使用的google analytics代码                       默认google analytics代码   豆瓣加载 ga.js 的方式与默认的方式有些不太一样,由于豆瓣并没有采用 https 加密访问,所以撇弃了默认的ga.js加载方式。 默认的统计函数,pageTracker 也被豆瓣改成了 _ga ,这个只是名称定义上的区别,并没有什么实质的改变。豆瓣的主要应用是下面两个函数: 使用 _ga._addOrganic 识别非主流搜索引擎 再来看豆瓣比默认 Google Analytics 代码增加的部分,那就是多了数个 _ga._addOrganic ,这是 Google Analytics 添加自定义搜索引擎的代码。尽管 Google Analytics 对于主流的搜索引擎都能自动识别,但毕竟能识别的是国外的主流搜索引擎,在国内,像搜狐的 Sogou,QQ 的 soso,网易的有道等搜索引擎,都不能被 Google Analytics 正确识别,而被当作推荐来源。这时候我们就可以利用_addOrganic 参数来识别这些非主流搜索引擎,如豆瓣的做法。 使用 _addIgnoredOrganic 忽略关键字…

  • google analytics 一次性导出关键词数据的方法

      今天公司做了一个关键词批量监控的工具,可以监控网站所有有流量的关键词的排名情况,这也是葛小飞顾问对我们网站提出的建议。   做好了监控词的工具,接下来就是搜集网站比较优质的关键词的步骤了,我们的计划是把网站现有排名的关键词做规划,以已有排名的关键词带动没有排名的相关关键词。但是这些关键词的来源在哪呢?答案只有一个,就是流量监控后台 google analytics,google analytics 列出了所有带来过流量的关键词,这是一个很好的资源。但是问题出现了,google analytics 不支持关键词全部导出,最多只能导出500个关键词。我看了一下我们网站带来流量的所有关键词,4W多个,500每次的导出还要800次~  刚才在网上看到一个解决方法,拿出来跟大家分享: 步骤:点击流量来源>关键字>(右上)导出>csv 导出CSV的地址为下载地址,将这个下载地址复制下来,手一定要快哈~不然不让复制了。 将复制的地址粘贴到新的地址栏,最好是firefox,地址看的清楚点。 将粘贴的地址后面添加&limit=40000,如https://www.google.com/analytics/reporting/export?id=24643294&pdr=20110709-20110808&cmp=average&rpt=KeywordsReport&segkey=keyword&afs=false&fmt=2 后面添加&limit=40000后地址为https://www.google.com/analytics/reporting/export?id=24643294&pdr=20110709-20110808&cmp=average&rpt=KeywordsReport&segkey=keyword&afs=false&fmt=2&limit=40000 enter 激活url生成一个下载地址,下载后的csv文件里面就包含了40000个关键词,当然,如果你的网站有更多的关键词,limit=后面是可以随便变的。 在网上看了几篇都研究了很久才知道怎么操作,自己写下来留作纪念,也希望能帮到大家。 原创文章,转载请注明:http://www.lulu13.com/archives/114

  • google不到一个月更新两次pr的内幕!

    转自ZAC老师博客:http://www.seozac.com/seo-news/twitter-technical-issues/#comment-223795 6月27号Google工具条PR更新了一次,然后很多人注意到Twitter首页PR降为零。(Google首页也降到9,不过这不是重点。)7月19号Google居然又更新一次工具条PR。Google更新工具条PR值从一个月一次变到3个月一次,甚至半年一次,所以这次不到一个月就再次更新有点蹊跷。据目前透露的信息,这次更新PR貌似主要就是为了修正Twitter PR值的问题。 今天看到SEL上Vanessa Fox的一篇文章,解释了为什么Twitter的一些技术失误导致Google抓取、URL规范化、PR计算等一系列问题,很值得一读,所以大致翻译一下供读者参考。 为什么不是Google的错误,Google却这么上心,更新了PR呢?猜测原因有二,一是无论任何情况下Twitter首页PR为零,大家肯定是说Google有问题,而不是Twitter有问题,虽然其实确实是Twitter自己造成的。二是,在Google 推出的同时,Google与Twitter合作合同到期了,不能直接通过API抓数据了,这时候Twitter PR降为零,大家恐怕心里会嘀咕,这Google真是过了河马上就拆桥啊,Google不想背这个黑锅。 言归正传。 Google一位发言人回复SEL关于Twitter PR时说: 最近Twitter不断修改它们的robots.txt文件和HTTP头信息,玩得太起劲了,暂时造成Google算法处理Twitter时的URL规范化问题。现在规范化问题差不多解决了,所以我们更新了工具条PR以反映最新数据。Twitter在Google索引库里一直有很高PR,没有惩罚。 所以Vanessa Fox研究了一下Twitter到底有什么robots文件、服务器头信息、URL规范化问题。真是不看不知道,一看吓一跳。顺便提一下,Vanessa Fox是前Google员工,负责网管工具webmaster tools的。 预感这篇帖子会比较长,才刚开始就这么长了… Vanessa Fox搜了一下自己名字“Vanessa Fox”,结果如下图: 有URL,但没标题,没说明,也就是其实没抓取,只是部分索引。 直接搜Vanessa Fox自己Twitter页面URL的结果是: 为什么出现了大写?URL最后面那个点(.)又是什么东东?到底怎么回事呢? 先来看看Twitter的robots.txt文件 twitter.com和www.twitter.com的robots.txt文件居然是不一样的。twitter.com/robots.txt是这样的: #Google Search Engine Robot User-agent: Googlebot # Crawl-delay: 10 — Googlebot ignores crawl-delay ftl Allow: /*?*_escaped_fragment_ Disallow: /*? Disallow: /*/with_friends #Yahoo! Search Engine online casino Robot User-Agent: Slurp Crawl-delay:…

  • canonical标签与301转向

     网址的规范化有很多种,其中很多人都分不清canonical tag 和301转向的区别,今天讲讲canonical标签和301转向的区别和两种网址规范化的原理。 canonical标签是2009年2月,由google,雅虎,bing共同发布的一个解决网址规范化问题的标签,百度不支持canonical标签。 canonical标签的好处是不通过服务器请求,而是对搜索引擎的一种建议或暗示,告诉搜索引擎的一种标签,不想是robots文件是一种命令,也不像301转向需要请求服务器,相当于一个页面内的301转向,canonical标签可以用在一些不支持301转向的网站, 写法:<link rel=”canonical” href=http://www.lulu13.com>。 301转向比较常见,用户或蜘蛛向网站发出访问请求时,服务器返回的HTTP数据流中头信息部分状态码的一种,表示本网址被永久转向到另一个网址。 301转向的好处是可以传递大部分的权重(但不是百分之百),百度,google,yahoo等主流搜索引擎都支持301转向命令。 301转向的做法也比较简单,LAMP主机使用.htaccess文件做301转向,比如要把页面/archives/11 做301转向到http://www.lulu13.com/archives/43 ,可以在.htaccess文件中放上指令: redirect 301 /archives/11  http://www.lulu13.com/archives/43 , 或者redirect permanent /archives/11  http://www.lulu13.com/archives/43 静态页面不可以做301转向,html一被读取,就已经返回200状态码了。静态页面可以做javascript或meta refresh 转向。 讲的自己有点晕,呵呵。 下面是一些常见的状态码 200:一切正常 404:网页不存在 302:临时转向 500:内部程序错误