|
楼主 |
发表于 2005 年 5 月 24 日 10:19:05
|
显示全部楼层
隐形页面(Cloaked Page)工作原理
简单的说,所谓的Cloaked 技术是指网站对不同的访问者选择性的返回不同的页面内容.
你在你的服务器上有一个Cloaked 网页. 这个"网页"实际是一个读取访问者IP地址的服务器脚本. 它检查访问者IP地址是否是众所周知的搜索引擎地址(比如Google,yahoo等).如果发现访问者IP地址是某一个搜索引擎地址,则标识访问者是"搜索引擎spider",否则认为访问者是真正的"人类用户".
服务器脚本能够选择性的基于访问者标识返回不同的页面内容,如果访问者是真正的"人类用户",可以返回这个网站的首页或者没有高度优化的网页. 如果访问者是"搜索引擎spider",则可以返回高度优化的网页.
大家可以看到Cloaked网页的要点是: 同一个网页地址(URL),搜索引擎得到了高度优化的网页内容,而真正用户看到不同的内容!
上面笨笨用IP地址作为标识访问者的手段,请求网页的客户端软件(一般是浏览器)发送过来的user_agent也可以用来标识访问者.
我们已经讨论过了cloaking 机制. 下面要谈论风险管理问题. cloaking 是高风险的. 搜索引擎已经公开声明反对cloaking, 如果被逮住的话,可能会被惩罚.
为了最小化风险,你应当采取以下策略: 1)网页最好放在另外一个网站,不同于你主要网站. 2)维护一个准确的最新的搜索引擎IP地址列表 3)指令搜索引擎不要缓存你cloaked网页(也就是搜索引擎不维护你cloaked网页的网页快照)
下面再分别解释一下每个策略.
1)你应当使用一个新域名和新网站服务器使用你的Cloaking机制,这样你遭受惩罚时,你的主域名就可以逃出生天. 记住,域名的whois信息最好不同.
2)搜索引擎的IP地址偶尔发生变化,最好能够维护一个最新的列表, 以使你的Cloaking页面工作.
3)搜索引擎提供的网页快照自然会使你的把戏暴露在哪些访问你网站的人眼中,如果给你的竞争对手或者同行看到更加不妙了.
在Cloaking网页中确保使用 ROBOTS NOARCHIVE meta tag. 如果某个搜索引擎不理会你在html使用的这个指令,不要把它作为优化对象.
最后,最重要的问题: "你应不应该使用Cloaked?" 这个与伦理道德相关的问题作为练习题留给大家.
很多人认为cloaking是卑鄙和不道德的.他们声称你通过欺骗搜索引擎来达到不配得到的排名目的.另一方则辩解cloaked网页试图对搜索引擎提供更多的相关结果...
当然也有实际问题要考虑. 创建和维护一个cloaking系统需要花费多少时间. 与系统带来的流量相比,你所花费的钱(购买一个cloaking软件,登记一个新的cloaking域名和hosting服务器)或者时间(你自己编写脚本)是否值的.
典型案例:免费电影排名第一 www.tk4479.com |
|