2007年11月30日星期五

SEO之竞争对手策略

SEO中的关键词排名,其实质无非是超越竞争对手。经过一系列的分析后,如何将策略部署下去,成功超越竞争对手呢?樂思蜀就此谈下面四个策略。

 一、师夷之长以制夷

研究较强的竞争对手——在搜索引擎搜索结果中有较好排名的网站。这些网站在搜索引擎中能有较好的排名,必有其长处,那么他们为什么能有好的排名,又是通过哪些途径做到的,就是我们研究的目标。当我们充分了解了竞争对手的手法和途径,可以在这基础上,加以改进、完善,并应用在自己的网站上。

这一策略主要针对竞争度不是太大的关键词,双方网站权重差别不是太大的情况下。

二、取己之长补其短

有时,我们的竞争对手可能很强,在搜索引擎中的权重轻易无法撼动,这就需要曲线进攻。

任何一个网站,都不可能做到完美的天衣无缝。认真研究,找出他们的缺点和不足之处,然后专做他们没有做足的地方。分散出击,坚持下去,随着网站的发展,会一部分一部分的超越竞争对手。

三、专攻鞭长莫及处

任何一个网站,都不可能垄断这一主题,总有很多没做到的地方。我们完全可以先从小处着手,把重点放在对手没有做到之处。做好一点,就为自己网站获得一份权重,积累到一定程度,再攻较热门的关键词或主题,就显得容易多了。

四、绝招:釜底抽薪

当你尝试了很多办法,发现仍然无法超越竞争对手(实力上的无法超越应该回避,这里指的是通过技术实现的超越)时,再考虑使用这一招。

一人可以兴邦,一人更可以兴站,也许你的竞争对手的操作者是一位真正的高人。如果你对你的选择充满信心,而且不超越誓不罢休。那么……出大价钱,把对手的操作者挖过来。

这一招比较狠,但不龌龊,商业社会,本身就随处都充满了竞争,聘用者和被聘者有双向选择的权利。

题外话:这引出了一个问题,目前已经通过SEO获益的企业、网站,SEOer们的价值已经显现,要注意留好自己的人才了。

2007年11月26日星期一

原创内容的尴尬

大家都知道,高质量的原创内容,是搜索引擎排名的一个重要依据,而且重要程度还在逐步提升。但是,现实的情况是,原创文章在搜索引擎索引中并不一定是原载,原载的并不一定是自己的原创。

这是搜索引擎的尴尬,一面极力倡导原创,并提高给予原创内容的权重,一面却无法很正确的识别出文章的“源”。这更是作者的尴尬,辛辛苦苦写好的文章,在搜索引擎中搜索,自己的原出处没有好的排名,转载自己文章的网站却排在前面。

搜索引擎能否完全正确识别文章的原创性,我认为目前还是个问题。

网站权重?如果按综合权重,门户级的网站就可以任意转载,并以此来获得更高的权重。

网站年龄?很多较大的网站,他们的运营时间远比新的小站、博客长,而事实上原创内容大多来源于小站和博客。

文章收录时间?权重较高的站收录更新快,文章很快就能收录,如果大站很快从原出处转载文章,先于原出处收录,那么文章算是谁的原创呢?

PR值?权威度?还是其他神秘因素?

这将导致一个问题:文章被转载,创作者没有得到给予原创内容应有权重,就无法提升网站综合权重;网站权重不能提升,新的文章再次被转载,再次不能获得权重……恶性循环。

通过对一些经常发表原创文章的网站、博客观察,Google在判定原创上做的比较好,大多数都能正确识别;而很多搜索引擎对于原创性大部分不能识别。

即使对原创识别能力较强的Google,也只是大多数情况下能够正确识别,还有很大一部分作者,辛辛苦苦写出来的文章,成为了别人的成果。有些网站在转载时还能写上作者、原出处,而一部分网站转载时连作者都省去了,更有甚者拿别人的文章,做上自己的链接,冠上自己的名号发布……

一边号召原创,给予原创内容高的权重值,却一边打击原创作者,这样是不合适的。

搜索引擎应在提高原创内容权重值之前,完善相应算法,权重分配随着算法的完善程度提高,而不至于原创作者得不到应得的权重,进入一个恶性循环。

2007年11月25日星期日

网站也要“低调”

说“低调”之前,先列举一下“高调”的例子吧:

  • 网站定位:动辄“中国最大的XXX”、“XX行业最大的XX平台”、“最大的XX社区”……

  • 内容定义:“最全XX”、“最新XX”、“XX产品最全”……

  • 网站资质:“最佳的XX”等。


这类网站几乎随处可见,真实的、不真实的都习惯性的冠上这样那样的名号。

百度可以宣称“最大的中文搜索引擎”,因为全球中文搜索市场占有数据决定了没有比他更大的;G.cn可以宣称是最短的域名,因为全球再没有比它再短的……

但是,我们在没有理论数据支持的情况下,这种“最XX”还是尽量少用,因为:

对于用户

如果用户在号称最全的软件站中找不到某款软件、在登录号称最大的商务平台时发现没有自己经营的产品类别、访问最佳的XX网站时发现还不如其他同类网站……你可能会失去这个用户,同时根据“250定律”,你可能失去的不是1位用户。

对于搜索引擎

虽然目前搜索引擎没有明确限定一个准确的范围,但根据近期对几个网站的观察,发现使用上述过分“高调”词汇的网站,与搜索引擎的关系不是那么融洽。没有确切的依据,个人猜测,仅供参考。

人工目录

最大的人工目录DMOZ明确规定,网站标题/描述信息中不能出现“最XX”的字样。我想其他大小目录即使没有这样的规定,审核也会存在一定的障碍,人工目录的背后是人,而不是程序或机器。

合作

资源互换、互惠合作是一种很好网络营销方式,但如果一个号称最大的SEO网站与我交换链接、广告互换、资源共享时,我肯定会想:他已经是最大的了,还在乎和我的小站合作;或者,产生敌对心理,凭什么说你是最大的?

那么……这样说来,是不是还要把网的优势都藏起来?当然不是,把这些口号作为我们的目标,而不是广告词,不是现在的广告词。做好网站,向这一目标努力,可能某一天,就可以堂而皇之的、名正言顺的对外宣称“最XX”的网站了。

虽然强调的是“低调”,但具备的优势就一定要显现出来。用户友好的因素,就要在适当的位置给出提示,让你的用户知道网站具备的友好因素;网站主题、定位、内容都好,就要将这些优点展示出来,对网站进行优化,达到搜索引擎友好。

说到底,还是一个“度”的问题,最高境界可能是既充分的展现,又不至于露出锋芒反伤了自己。

战斗了40多小时了,困……what i talk about?

2007年11月20日星期二

用.htaccess实现网址规范化

网址规范化在SEO中是一个比较重要的环节,同时存在不同的网址版本,不但可能造成复制,还不能正确的集中权重。

目前大多数网站,绑定域名都有带WWW和不带两个版本,甚至很多网站同时绑定多个域名。经过处理(跳转、CNAME……),对于访问者来说可能没有任何影响,看到的都是同样的内容;但对于搜索引擎,就无法确定哪一个网址是真正的主页。

可控因素,网站内容链接应该保持同一个版本,比如整站中,返回首页的地址为固定的一个版本。但还有一个不可控的因素,就是别人链到你的网站,所使用的网址。很多自发链接或交换链接时,别人可能会省略掉WWW,或采用绑定的另一域名。

外界因素不可控,我们可以从网站内部来控制。利用Apache的.htaccess,使用301重定向,规范网址。

新建一个空文件,文件名.htaccess,填入重定向规则后,上传到网站根目录。

用301将不带WWW的域名重定向

rewriteEngine on
rewriteCond %{http_host} ^lesishu.com [NC]
rewriteRule ^(.*)$ http://www.lesishu.com/$1 [R=301,L]


用301将绑定的其他域名重定向到主域名

RewriteEngine on
RewriteCond %{HTTP_HOST} ^其他域名.com$ [OR]
RewriteCond %{HTTP_HOST} ^www.其他域名.com$
RewriteRule ^(.*)$ http://www.主域名.com/$1 [R=301,L]


当然,也可以再扩展一下,将index.html、index.php等也重定向一下:

RewriteEngine on
RewriteCond %{THE_REQUEST} ^[A-Z]{3,9} /index.php HTTP/
RewriteRule ^index.php$ http://www.lesishu.com/ [R=301,L]


可以用这个免费工具检查一下转向的效果:

http://www.internetofficer.com/seo-tool/redirect-check/

2007年11月10日星期六

robots.txt和robots Meta标签

今天一天之内,准确的说相隔不到3个小时,就有两个朋友在QQ上让我帮他看看网站,为什么搜索引擎不收录。从我个人角度来看,他们的站做的还不错,除了个别地方(如有几页标题相同之类)不够,没有导致不收录的因素。最后一查看robots.txt,“Disallow: /”。

回想起来,找我咨询的朋友中,还真有不少的一部分都是这样的问题,所以写出来,供不熟悉的朋友参考。

1、robots.txt是什么?

robots.txt是一个纯文本文件,用来告诉网络蜘蛛(不仅限搜索引擎蜘蛛)本站中哪些位置允许抓取,哪些位置不允许抓取。

2、如何正确放置robots.txt?

首先,robots.txt文件必须放置在网站根目录;有域名指向到次目录,在次目录放置的robots.txt文件只对此域名有效。

其次,文件名必须小写,如Robots.txt、roBots.txt、robots.TXT都是错误的。

3、robots.txt内容应该如何写?

文件应该同时包含2个域,“User-agent:”和“Disallow:”,每条指令独立一行。

(1)User-agent:

指定允许哪些蜘蛛抓取,如果给出参数,则只有指定的蜘蛛能够抓取;如值为通配符“*”号,代表允许所有蜘蛛抓取。如:
User-agent: Googlebot

只允许Google的蜘蛛抓取;
User-agent: *

允许所有蜘蛛抓取。

注意:User-agent必须出现在第一行(有意义的行,注释除外),首先声明用户代理。

(2)Disallow:

指定禁止蜘蛛抓取的目录或文件,如:
Disallow: /help.php

禁止抓取根目录下help.php文件;
Disallow: /admin/

禁止抓取根目录下的admin子目录中任何内容;
Disallow:

值为空时,表示不限制,蜘蛛可以抓取站内任何内容。

如果需要指定多个目录或文件,可以用多个“Disallow: 文件或目录名”来指定,但必须每一项单独一行。

这就是前面说到的那两位朋友网站robots.txt的问题,他们用“Disallow: /”禁止了蜘蛛抓取根目录下的所有内容。

4、robots.txt需要注意的几个问题:

  • robots.txt文件中任意一行Disallow的值为空,其他指定的项都将失效,整站允许User-agent指定的蜘蛛抓取;

  • robots.txt文件中允许使用注释,以“#”开头的内容被认作注释;但注释最好独立成一行,尽量不要加在参数后面,如“Disallow: /admin/ #manage dir”,某些蜘蛛可能将注释当作值的一部分。

  • 尽量不要在一行的前面出现空格,如“  Disallow: /”,可能某些蜘蛛无法正确读取。

  • 推荐一个robots.txt检查工具:http://tool.motoricerca.info/robots-checker.phtml


5、将你的XML格式Sitemap地址放到robots.txt中

Robin新发现,并率先在国内提出的,大家可以到点石博客中下载Robin的“网站如何被高效索引”演讲稿阅读。

加入Sitemap地址的作用是,如果搜索引擎蜘蛛能够识别此行,就能快速获知网站的XML地图文件地址,并将地图文件作为一个URL参考进行高效索引(具体哪些搜索引擎蜘蛛能够识别目前我还不清楚)。

樂思蜀SEO博客的robots.txt,紧接着User-agent的第二行:
Sitemap: http://www.lesishu.com/sitemap.xml

此处之前的内容,将Sitemap放在第一行的说法错误,特此更正。

robots Meta标签

robots.txt是放在网站中,文件级的网络蜘蛛授权;而robots Meta标签是放在网页中,一般用于部分网页需要单独设置的情况下。两者的功能是一样的。

Meta robots标签必须放在<head>和</head>之间,格式:

<meta name="robots" content="index,follow" />

content中的值决定允许抓取的类型,必须同时包含两个值:是否允许索引(index)和是否跟踪链接(follow,也可以理解为是否允许沿着网页中的超级链接继续抓取)。共有4个参数可选,组成4个组合:

  1. index,follow:允许抓取本页,允许跟踪链接。

  2. index,nofollow:允许抓取本页,但禁止跟踪链接。

  3. noindex,follow:禁止抓取本页,但允许跟踪链接。

  4. noindex,nofllow:禁止抓取本页,同时禁止跟踪本页中的链接。


以上1和4还有另一种写法:

index,follow可以写成all,如:
<meta name="robots" content="all" />

noindex,nofollow可以写成none,如:
<meta name="robots" content="none" />

需要注意的是,robots Meta标签很多搜索引擎是不支持的,只有少数搜索引擎能够识别并按给定的值抓取。所以,尽可能的使用robots.txt文件来限制抓取。

最后,给大家一个建议,不要太刻意的在robots.txt中设置过多禁止文件或目录,只设置确实不希望被搜索引擎索引的目录和文件就可以了。

特别是在不清楚文件或目录的作用时,不要轻易禁止抓取。前阵一位做旅游的朋友,网站中有大量的旅游景点图片,几大搜索引擎中却都没有索引,后来对网站检查时发现图片目录upload在管理目录admin下,被robots.txt禁止抓取了。

虽然网上关于robots的文章已经很多了,发现都不尽全面,整理了一下供参考。

2007年11月9日星期五

让你们开开眼界

今天,去杨凌参加了农高会,那可是开了眼了。

什么超大号红薯、超大号萝卜……甚至重达182斤的南瓜,虽然稀罕但没多少感觉。倒是这家伙引起了我的注意:

 大锅盔

当时忘了放个参照物,以便大家能知道大到什么样。

粗犷豪放的老陕,吼一声秦腔,喋一块锅盔,日子撩扎咧!

2007年11月6日星期二

博客开通WAP功能

前段时间看到消息说MoFuse可以为博客提供WAP版本的服务,但不让注册。今天看了一下,已经开放注册了,赶紧尝一下鲜,现在不但开放注册了,还可以绑定域名,感觉挺好。

我的博客WAP访问地址:

http://wap.lesishu.com

也想尝试一下的朋友可以访问MoFuse,在首页上的填一下邮箱、密码等信息,立即开通,超简单。

绑定自己域名的时候,只需要在站点属性的设置项里,填上要绑定的域名;再将你的域名增加一个CNAME,指向到分配的二级域名就可以了。

只是我在设置颜色样式那里,一打开就出现“无法访问”的提示,没办法设置,郁闷。

2007年11月5日星期一

Dreamhost优惠码

Dreamhost优惠码:WZW,需要购买Dreamhost主机的朋友,用这个优惠码可以省$97,还能帮我赚$5,大家多多的用啊 :)

最近几位朋友问我国外的主机,从我用这段时间来看,感觉Dreamhost还是不错的,速度不是太快,但还算稳定,最关键的是便宜。

用Dreamhost优惠码购买空间,省掉$97后是$22.4,按现在的汇率算下来,赶上白菜价了。但是有一点,用满一年后,再续费就没有优惠了,全价,$119.4;也别想打歪主意,不续费重新用优惠码买,你绑定的域名Dreamhost有记录的,放弃重买空间就不能绑原来的域名了,这一招比较绝的。

网址:http://www.dreamhost.com/

大致参数如下:

空间大小:225G (跟Gmail一样涨着的,具体咋长的不清楚)

流量限制:4544G/月(4.5TB,也和空间大小一样,往上涨着的)

网站数量:不限,但空间/流量是共享的

服务器环境:Debian操作系统,支持PHP+MySQL+FastCGI

数据库:无限数量,无限空间,随便用啦

用户帐号:无限个

FTP/SSH:无限帐号;支持SSH(这一点最爽,会用linux的登录后用命令行操作,甚至可以自己定义php.ini参数等等)

主要的就这些了,邮箱什么的都带有,需要的朋友还是上网站看吧,帮助里有详细的说明。

无孔不入的Google

这两天忙着做了个小站起来,准备作实验用,刚把主体框架搭起来。喜欢先在本地调试好,添加内容时才上传,正式放到服务器是昨天晚上,刚才忙完,准备清理一下我自己加内容时的Log信息,打开看了一下,很是吃惊。

Log中除了我自己添加内容的记录,就是Googlebot了,好像我的访问记录最多只占1/3左右。有点不明白,刚放上去的站,没有任何地方有链接,甚至没有其他人的访问记录,Google咋知道的呢?

休息的时候想了好长时间,最后怀疑有两个原因。

一是我使用了Google工具条,访问的时候这些信息上传给了Google(有点流氓了哈),他再顺藤摸瓜派虫子一阵疯爬。这种可能性很大。

二是,我还怀疑Google和域名的关联,很早的时候Google就是域名代理,而且据传还将收购最大的域名商GoDaddy。Google应该不会提供域名服务,可能是利用接口,继续做大他的搜索市场。这样的话他也许在玩“守株待兔”,发现新的域名注册后马上派虫子去探路,能正常浏览了就开始疯爬。这种可能性好像不太大,但也完全有可能的。

忙了几天,累……想起在某论坛看到的一帖,作技术的孤单、失落,没有多少人能够理解的。

2007年11月2日星期五

樂思蜀的SEO论:手表定律

德国心理学家发现一种有趣的现象:
如果给你一块表,那么你一定会无比坚信这块表所指示的时间;而给你两块表的时候,你反而会不知所措,因为这两块表所提供的时间很有可能会不一致,那么你将相信哪一块手表?

这就是著名的手表定律(Watch Law),也称为矛盾定律或两只表定律。

作为SEOer、站长,比别的群体有“两只手表”的机率更高,涉及的领域太宽泛,机遇和可能性都太多。如果我们不能毅然作出选择,就会陷入茫然的境地。

业精于勤而贵于专。昨天我在《商界》上也看到一则小文章,说世界上最紧张的地方算是纽约中央车站问询处,但这里的服务人员工作时并没有太多压力感,因为他们擅长“一次只服务一位旅客”,除了他们正在服务的旅客,其他人的问询一概不回答。

从站长的角度,根据我在与别人交流时的观察和总结,聪明的站长,手里无论有多少网站,都是基于一个核心。也就是说他们手里的网站,都具有很高的相关性,大多数为同一主题或相关的主题,如果主题不相关,就有一个关联的核心,例如针对的对象群体(女人、小孩、上班族……)一致,等。

这样,就能保证他们工作时精力全部集中在一个特定的领域,专注了就能做的更好。

SEO也一样,面临着很多选择,做白帽还是黑帽,侧重于站内还是站外,重点关注信息类网站还是商务类网站……

面临选择时,最好使用“模糊心理”,即站在自身角度,以潜意识为主导来取舍。我之前遇到很多朋友,问类似于选择的问题时,我都告诉他们,做自己喜欢的和擅长的。与“模糊心理”同一个道理,不要说没有特别的喜欢和不喜欢,静静的想一下,你的潜意识会替你选择你相对喜欢和擅长的。至于什么原因我解释不了,心理学的范畴 :P。

手表定律内容完,闲扯两句。

今天QQ上一位朋友告诉我,你选择的这几个论点都非常有启发性,可惜没有说的太深。事后想了想,没有办法的,很多东西是只可意会不可言传的,在于自己去领悟了。

定律/法则类SEO论暂告一段落,回头有时间了再继续。明天开始整理技术资料。

Google Adsense 西联付款已经签发

前段时间Google因技术问题,Adsense的付款取消,大约一周后支付。今天查看Adsense帐户,发现西联支付已经付款,看来明天应该就能取到现金了。大家查查帐户吧,注意里面写的取款时需要带的材料哦。

西联付款

但有一点不解的是,付款时间是10月30日,我下午的时候还看过了没有支付的。

西联支付相关链接:

2007年11月1日星期四

换了套模板

变样了?是的,嘿嘿……换了套模板,自我感觉良好。以前的模板太繁琐,图多加载慢不说,代码中还存在不少问题,所以决定先不写文章,换个好模板。

Wordpress模板多如牛毛,但要找套好模板真是不容易,别看都那些文件,但打开来看,绝大多数让人失望。我现在用的这,是我下载老外的,看演示很不错,但代码也非常之不规范。没办法,自己动手改,花了大半个晚上,总算大工告成。以后再不折腾了,这工作真是费时费力。

从明天开始,继续我的SEO论,呵呵。技术性的资料哪里都有,我觉得从SEO到营销,重要的是思路,点子比技术更实用。最近在研究将各个领域的理念引入SEO/SEM中,发上来既当笔记,又可以和大家分享,很好。

对了,最近可能大家看我没那么懒了,开始写博客了,就在QQ上或邮件中找我换链接。就顺便在这里声明一下,我博客上的链接,纯属“友情链接”,只放熟悉的朋友的博客。所以出于为了链接而要求交换的朋友,麻烦不要找我,如果我们之间有友情,而且我也知道你的博客地址,我会在不通知你的情况下放上你的链接,单向的。

我觉得博客是个人发挥的地方,为了链接而链接就失去了意义,给自己一块没有商业气息的“自留田”,闲下来就在这里发挥一下,与朋友们分享技术、分享快乐与不快乐,这种感觉很好。