10美元以内的VPS

10美元以下超值VPS,强烈推荐,新手练习VPS的超值选择。

主机商主机所在地虚拟技术内存大小硬盘大小流量限制价格(美元)评论DiaVPS/DiaHostingLos Angeles/Seattle/DallasXen128MB10GB100/150GB$10.00强烈推荐RASHOST VPSDallas/Los Angeles/硅谷/北京Xen128MB10GB不限流量¥68.00强烈推荐photonvpsLos AngelesOpenVZ/Xen512MB20GB500GB$10.95/16.95$推荐第九主机Peer1OpenVZ128MB8GB150GB$10.00推荐QuickWebSan Jose,TexasXen/OpenVZ128MB50GB/30GB600GB/400GB$9.95/$5.5Elite Data HostingLos Angeles/ChicagoXen160MB/256MB SWAP15GB10Mbps共享$8.8EcVps.comDallasOpenVZ512MB20GB500GB$10.00推荐boxvpsPhoenixOpenVZ64MB2GB50GB$6.00centiceroSacrantonOpenVZ64MB5GB50GB$6.00CleanVPSPhiladelphiaOpenVZ, Xen256MB10GB150GB$8.50cruciairaradigmDallasXen128MB15GB120GB$10.00dmehostingDenverOpenVZ, Xen64MB/128MB3GB/5GB200GB/400GB$6.95/$9.95echoserversDallasOpenVZ96MB2GB150GB$5.99fivebeanDallasOpenVZ128MB5GB100GB$5.00gretzkyhostingPhiladelphiaOpenVZ96MB5GB100GB$9.95hostgdScrantonOpenVZ128MB/128MB5GB/10GB25GB/50GB$4.95/$9.95Hosting InsideTaiwanOpenVZ64MB/128MB5GB10GB125GB/250GB$5.00/$10.00internetvpsScrantonOpenVZ128MB/256MB3GB/5GB100GB$4.99/$9.99minivdsNew YorkFreeBSD64MB/96MB1GB/2GB30GB/50GB$5.95/$9.95neosurgeChicago, IllinoisXen128MB5GB100GB$6.95Prgmr.comSacramentoXen128MB/256MB3GB/6GB20GB/40GB$6.00/$8.00推荐quantactCanadaOpenVZ128MB5GB128GB$9.99quillhostSacramentoOpenVZ64MB/128MB3GB/8GB75GB/150GB$4.99/$9.99rapidxenChicago, FremontXen128MB/128MB5GB/10GB?$7.49/$9.99强烈推荐superbytesCanadaOpenVZ64MB6GB60GB$6.00turbovpsTexas, IndianaOpenVZ, Xen128MB/256MB10GB/15GB150GB/200GB$4.99/$7.99unbeathostingDallas, AtlantaXen128MB5GB150GB$8.10vps4lessGermanyOpenVZ64MB1GB2Mbit?3.99vpsrepublicLos AngelesOpen VZ128MB1GB75GB$4.50vpsvillagePhiladelphiaXen64MB4GB50GB$6.00强烈推荐Welcome2Inter.netGermanyOpenVZ64MB/128MB1GB/2.5GB1Mbps/2.5Mbps?3.99/?5.99wickedvpsAtlantaOpenVZ256MB10GB100GB

推荐中国线路优化速度比较快的机房

1.Peer1 dedicated洛杉矶机房。
针对中国线路进行了优化,ping值在200ms以内。

2.he.net 加州(Frement)机房
he.net的单线路机房,这个线路对中国电信和网通比较友好,结点少,速度快。ping值200ms左右。
linode(加州数据中心)用的就是这个机房。

3.krypt圣安娜机房
对中国速度快,结点少,ping值200ms左右。

4.pacificrack的nLayer优化段
对中国速度快,结点少,ping值200ms左右。

大家继续补充,希望能够为新买vps/独立服务器的朋友一共参考。

补充:
比如加州还有几个机房,
https://www.staminus.net/  跟Krypt的洛杉矶机房在同一座ONE Wilshire大厦。

http://www.awknet.com/      跟PacificRack的洛杉矶机房在同一座大厦里。

http://www.webnx.com/      跟PacificRack的洛杉矶机房在同一座大厦里。

Godaddy使用谷歌mod_pagespeed加速模块

一直觉得自己的网站放在godaddy速度比较慢,老跟godaddy客户服务人员抱怨。

今天客服突然发邮件告诉我,我的空间可以使用谷歌的mod_pagespeed 加速模块,告诉了我使用方法!

转载自:网上购物http://www.guang58.com

我在根目录下的.htaccess文件中加入以下代码。就ok

<IfModule pagespeed_module>

    ModPagespeed on

     AddOutputFilterByType MOD_PAGESPEED_OUTPUT_FILTER text/html

     ModPagespeedFileCachePath   "你的网站目录/cache/"

     ModPagespeedGeneratedFilePrefix  "你的网站目录/files/"

     ModPagespeedRewriteLevel CoreFilters

     ModPagespeedEnableFilters add_head

     ModPagespeedEnableFilters outline_css,outline_javascript

     ModPagespeedEnableFilters move_css_to_head

     ModPagespeedEnableFilters combine_css

     ModPagespeedEnableFilters rewrite_css,rewrite_javascript

     ModPagespeedEnableFilters inline_css,inline_javascript

     ModPagespeedEnableFilters rewrite_images

     ModPagespeedEnableFilters insert_img_dimensions

     ModPagespeedEnableFilters remove_comments

     ModPagespeedEnableFilters elide_attributes

     ModPagespeedEnableFilters extend_cache

     ModPagespeedEnableFilters remove_quotes

     

     ModPagespeedDomain http://www.guang58.com

     ModPagespeedFileCacheSizeKb          102400

     ModPagespeedFileCacheCleanIntervalMs 3600000

     ModPagespeedLRUCacheKbPerProcess     1024

     ModPagespeedLRUCacheByteLimit        16384

     ModPagespeedCssInlineMaxBytes        2048

     ModPagespeedImgInlineMaxBytes        2048

     ModPagespeedJsInlineMaxBytes         2048

     ModPagespeedCssOutlineMinBytes       3000

     ModPagespeedJsOutlineMinBytes        3000

     ModPagespeedImgMaxRewritesAtOnce        8

     ModPagespeedStatistics off

</IfModule>

我的另一种配置:

<IfModule pagespeed_module>

     ModPagespeed on

     ModPagespeedEnableFilters combine_heads

     ModPagespeedEnableFilters outline_css,outline_javascript

     ModPagespeedEnableFilters move_css_to_head

     ModPagespeedEnableFilters rewrite_css

     ModPagespeedEnableFilters remove_comments

     ModPagespeedEnableFilters collapse_whitespace

     ModPagespeedEnableFilters elide_attributes

     ModPagespeedEnableFilters remove_quotes

     ModPagespeedCssInlineMaxBytes        2048

     ModPagespeedImgInlineMaxBytes        2048

     ModPagespeedJsInlineMaxBytes         2048

     ModPagespeedCssOutlineMinBytes       3000

     ModPagespeedJsOutlineMinBytes        3000

     ModPagespeedImgMaxRewritesAtOnce     8

     ModPagespeedStatistics off

</IfModule>

速度的确能够提升很多的,嘿嘿!

下面对mod_pagespeed模块的使用做一介绍,是翻译的资料,可看性还是很不错的。

1.加载pagespeed.conf文件

  # vim httpd.conf

Include conf/extra/pagespeed.conf

2.mod_pagespeed实例说明

# 加载mod_pagespeed模块

LoadModule pagespeed_module /usr/local/apache2.2.15/modules/mod_pagespeed.so

# 判断加载mod_deflate模块,如果没有加载将加载。mod_pagespeed自动启用mod_deflate压缩模块。

# mod_deflate模块提供deflate输出过滤器,允许服务器在将输出内容发送到客户端前进行压缩,以节省宽带。

<IfModule !mod_deflate.c>

LoadModule deflate_module /usr/local/apache2.2.15/modules/mod_deflate.so

</IfModule>

# mod_pagespeed模块的配置参数指令必须包含在IfModule中。

<IfModule pagespeed_module>

    # 开启(on)或关闭(off)mod_pagespeed。

    ModPagespeed on

    # Aoache直接将所有的HTML输出发送到mod_pagespeed处理程序。输出过滤器用来分析,优化和重新序列化HTML内容。

    AddOutputFilterByType MOD_PAGESPEED_OUTPUT_FILTER text/html

    # ModPagespeedFileCachePath 和ModPagespeedGeneratedFilePrefix目录对Apache运行用户必须是可写的。

    ModPagespeedFileCachePath    "/usr/local/apache2.2.15/mod_pagespeed/cache/"

    ModPagespeedGeneratedFilePrefix  "/usr/local/apache2.2.15/mod_pagespeed/files/"

    # mod_pagespeed重写标准。 ModPagespeedRewriteLevel有效的标准值有四个:PassThrough, CoreFilters, TestingCoreFilters, AllFilters。默认的重写标准是CoreFilters,使用一系列的重写过滤器,对大部分网页是比较安全的。对于大多数网站来说,可以不必更改重写标准,使用ModPagespeedDisableFilters 和 ModPagespeedEnableFilters规则来进行适当的微调。

    # ModPagespeedRewriteLevel CoreFilters

    # 明确禁用指定的过滤器,指令后面加上以逗号分隔的过滤器名称,可以重复。

    # ModPagespeedDisableFilters rewrite_javascript

     

    # 明确启用指定的过滤器。

    # 添加头信息。

     ModPagespeedEnableFilters add_head

    # 将多个头信息合并成一个,还可以改变内容顺序。

     ModPagespeedEnableFilters combine_heads

    # 测试过滤器。完全删除页面脚步,这将破坏功能,默认是禁用的。

    # ModPagespeedEnableFilters strip_scripts

    # 内嵌大块的Javascript和css可以移动到外部文件,这样它们就可以被缓存在浏览器中,即使HTML是不缓存的。

     ModPagespeedEnableFilters outline_css,outline_javascript

    # 将css元素移动到头信息中。

     ModPagespeedEnableFilters move_css_to_head

    # 将多个css元素合并成一个。

     ModPagespeedEnableFilters combine_css

    # 重写Javscript和CSS文件,删除多余的空格和注释。

     ModPagespeedEnableFilters rewrite_css,rewrite_javascript

    # 将CSS和JS小文件,内嵌到HTML文档中。

     ModPagespeedEnableFilters inline_css,inline_javascript

    # 优化图片重新编码成较小的字节大小,删除并不显示的多余像素并内嵌小图片。

     ModPagespeedEnableFilters rewrite_images

    # 增加宽/高属性来标记它们不存在。

     ModPagespeedEnableFilters insert_img_dimensions

    # 默认是关闭的。删除HTML文件中的注释。以免破坏Javascript延时执行。

     ModPagespeedEnableFilters remove_comments

    # 默认是关闭的。删除HTML文件中的多余空格。如果不是应用javascript和css来检测和标记DOM的,可以安全开启这个过滤器。

    # ModPagespeedEnableFilters collapse_whitespace

    # 删除不符合HTML规格的属性。

     ModPagespeedEnableFilters elide_attributes

    # 查找出缓存不超过一个月的所有图片,css和javascript,并延长缓存至它们生命周期。这个是安全的行为,因为增加了内容哈希URL,因此如果内容改变URL也将改变,并且可以获得正确的缓存。

     ModPagespeedEnableFilters extend_cache

    # 删除HTML属性并不需要的引号。

     ModPagespeedEnableFilters remove_quotes

    # 添加JavaScript的开头和结尾的页允许延迟信息发送回服务器。

     ModPagespeedEnableFilters add_instrumentation

    # 除了优化HTML资源外,mod_pagespeed还可以对指定的域的资源比如javascript,CSS,图片进行优化。

    #

      ModPagespeedDomain http://my_site.com

      ModPagespeedDomain http://cdn.my_site.com

    #

    # 域名允许使用通配符*和?。

# 默认情况下,域名下的所有HTML资源被重写。

       ModPagespeedAllow *

#  ModPagespeedDisallow *

#  ModPagespeedAllow http://*my_host.com/*/images/*.png

#  ModPagespeedAllow http://*my_host.com/*/styles/*.css

# 设置获取URL的超时时间。默认是5秒。注意:单位是微秒。

       ModPagespeedFetcherTimeoutMs 1000

    # 设置缓存参数。

    # ModPagespeedFileCacheSizeKb          102400

    # ModPagespeedFileCacheCleanIntervalMs 3600000

    # ModPagespeedLRUCacheKbPerProcess     1024

    # ModPagespeedLRUCacheByteLimit        16384

    # 设置过滤器参数。

# ModPagespeedCssInlineMaxBytes        2048

    # ModPagespeedImgInlineMaxBytes        2048

    # ModPagespeedJsInlineMaxBytes         2048

    # ModPagespeedCssOutlineMinBytes       3000

    # ModPagespeedJsOutlineMinBytes        3000

    # 设置任何时刻绑定多少张图片被重写。0代表不绑定。

    # ModPagespeedImgMaxRewritesAtOnce        8

    # 设置代理,mod_pagespeed记录请求网站的目录。

    #ModPagespeedSlurpDirectory …

# ModPagespeedSlurpReadOnly on

    # 开启服务器端的javascript检测和统计信息。

    #在每个HTML页面注入两个小块的javascript,用来计算客户端加载呈现页面的时间并报告给服务器。

     ModPagespeedEnableFilters add_instrumentation

    #

     <Location /mod_pagespeed_beacon>

           SetHandler mod_pagespeed_beacon

     </Location>

# 使用ModPagespeedBeaconUrl指令来更改到不同的目录或服务器。

# <Location /my/path/to/beacon>

#      SetHandler mod_pagespeed_beacon

# </Location>

# ModPagespeedBeaconUrl "/my/path/to/beacon?ets="

# ModPagespeedBeaconUrl "http://my_other_server/my_beacon?ets="

# 禁用统计信息。(mod_pagespeed0.9.11.5以上版本才支持)

# ModPagespeedStatistics off

    # 查看统计数据。

   <Location /mod_pagespeed_statistics>

        Order allow,deny

        Allow from XXX.XXX.XXX.XXX

        SetHandler mod_pagespeed_statistics

    </Location>

</IfModule>

<Directory /www/mod_pagespeed_example>

  <IfModule headers_module>

    <FilesMatch "\.(html|htm)$">

      Header unset Etag  //关闭HTML文件的Etag

      Header set Cache-control "max-age=0, no-cache, no-store"  //不缓存

    </FilesMatch>

# 图片,样式和javascript的重写URL包含哈希值。

    <FilesMatch "\.(jpg|jpeg|gif|png|js|css)$">

      Header unset Etag

      Header set Cache-control "public, max-age=600" //重新读取文件内容和重新计算哈希值。只要内容不改变,哈希值不会改变,缓存在浏览器中的相关资源将保持。

    </FilesMatch>

  </IfModule>

</Directory>

3.mod_pagespeed实例

LoadModule pagespeed_module /usr/local/apache2.2.15/modules/mod_pagespeed.so

<IfModule !mod_deflate.c>

LoadModule deflate_module /usr/local/apache2.2.15/modules/mod_deflate.so

</IfModule>

<IfModule pagespeed_module>

    ModPagespeed on

    AddOutputFilterByType MOD_PAGESPEED_OUTPUT_FILTER text/html

    ModPagespeedFileCachePath   "/usr/local/apache2.2.15/mod_pagespeed/cache/"

    ModPagespeedGeneratedFilePrefix  "/usr/local/apache2.2.15/mod_pagespeed/files/"

     ModPagespeedRewriteLevel CoreFilters

     ModPagespeedEnableFilters add_head

     ModPagespeedEnableFilters outline_css,outline_javascript

     ModPagespeedEnableFilters move_css_to_head

     ModPagespeedEnableFilters combine_css

     ModPagespeedEnableFilters rewrite_css,rewrite_javascript

     ModPagespeedEnableFilters inline_css,inline_javascript

     ModPagespeedEnableFilters rewrite_images

     ModPagespeedEnableFilters insert_img_dimensions

     ModPagespeedEnableFilters remove_comments

     ModPagespeedEnableFilters elide_attributes

     ModPagespeedEnableFilters extend_cache

     ModPagespeedEnableFilters remove_quotes

     ModPagespeedEnableFilters add_instrumentation

     

     ModPagespeedDomain http://www.XXX.com

     ModPagespeedFileCacheSizeKb          102400

     ModPagespeedFileCacheCleanIntervalMs 3600000

     ModPagespeedLRUCacheKbPerProcess     1024

     ModPagespeedLRUCacheByteLimit        16384

     ModPagespeedCssInlineMaxBytes        2048

     ModPagespeedImgInlineMaxBytes        2048

     ModPagespeedJsInlineMaxBytes         2048

     ModPagespeedCssOutlineMinBytes       3000

     ModPagespeedJsOutlineMinBytes        3000

     ModPagespeedImgMaxRewritesAtOnce        8

     ModPagespeedEnableFilters add_instrumentation

     <Location /mod_pagespeed_beacon>

           SetHandler mod_pagespeed_beacon

     </Location>

   <Location /mod_pagespeed_statistics>

        Order allow,deny

        Allow from XXX.XXX.XXX.XXX

        SetHandler mod_pagespeed_statistics

    </Location>

</IfModule>

<Directory /www/www.XXX.com>

    <IfModule headers_module>

       <FilesMatch "\.(shtml|html|htm)$">

        Header unset Etag

        Header set Cache-control "max-age=0, no-cache, no-store"

       </FilesMatch>

        <FilesMatch "\.(jpg|jpeg|gif|png|js|css)$">

        Header unset Etag

        Header set Cache-control "public, max-age=600"

        </FilesMatch>

    </IfModule>

</Directory>

喜欢研究的朋友可以去看这个地址:

http://code.google.com/intl/zh-CN/speed/page-speed/docs/config_filters.html

转载自:网上购物http://www.guang58.com

目前这套优化模块已经应用具于有 850万客户的 GoDaddy 服务器上,而且反响良好。根据此前的一些实践来看, 通过 mod_pagespeed 可以对 Web 性能的多个方面,包括缓存、客户端与服务器之间的连接、载荷大小等进行优化,最大可将页面加载时间缩短 50%

让你的网站速度再飞一会儿

影响Google排名的因素

  由国外37名优秀的搜索引擎优化界高手共同参与,以投票形式评论影响Google排名的重要因素,此次评选非常有价值,尽管没有将200多个Google排名因素全部列出,但Google排名算法中90%-95%的重要成分已经包含在其中了,Chris.dl也是最近才看到,非常有价值,现在将其翻译,并整理出来,希望对广大SEO爱好者有帮助。

转载自:网上购物http://www.guang58.com/  

有利于Google排名的因素:
排名 得分 分类             详细说明 
1      4.9   关键词          关键词在网站TITLE上的使用 
2      4.4    外部链接      外部链接的锚文字 
3      4.4    网站品质      网站的外部链接流行度、广泛度 
4      4.1    网站品质      域名年龄(从被搜索引擎索引开始计算) 
5      4       页面质量      网站内部链接结构 
6      3.9    网站品质      网站的外部链接页面内容与关键词的相关性 
7      3.9    网站品质      网站在主题相关的网站群中的链接流行度 
8      3.7    关键词         关键词在网页内容上的应用 
9      3.6    外部链接      外部链接页面本身的链接流行度 
10    3.5    网站品质      网站新外部链接产生的速率 
11    3.5    页面质量      导出链接的质量和相关性 
12    3. 5   外部链接      外部链接页面的主题性 
13    3.5   外部链接       外部链接页面在相关主题的网站社区中的链接流行度 
14    3.4   关键词          页面内容和关键词的相关性(语义分析) 
15    3.4   页面质量       页面的年龄 
16    3.3   关键词          关键词在H1标签中的使用 
17    3.2   网站品质       网站收录数量 
18    3.2   外部链接       链接的年龄 
19    3.1   网站品质       用户查询的关键词与网站主题的相关性(防止Google bombing) 
20    3.1   外部链接       链接的周围文字 
21    3      关键词          关键词在网站域名中的使用 
22   3       页面质量       页面内容的质量 
23   2.8     关键词         关键词在页面URL中的使用 
24   2.8     关键词         关键词在H2、H3等Headline标签中的使用 
25   2.8     页面质量      网站的结构层次 
26   2.8     网站品质      用户行为 
27   2.8     外部链接       同域名下外部链接页面的链接流行度 
28   2.6     关键词          图片的关键词优化 
29   2.6     网站品质      Google的人工授予权重 
30   2.6     网站品质      域名的特殊性(.edu .go 等) 
31   2.5     网站品质      新页面产生的速率 
32   2.5     外部链接      外部链接的创建和更新时间 
33   2.5     外部链接      外部链接网站域名的特殊性 
34   2.4     外部链接      外部链接网站的PR值 
35   2        关键词         关键词在Meta Description中的使用 
36   2        网站品质      用户搜索网站的次数 
37   1.9     页面质量      URL中“/”符号的出现次数 
38   1.8     页面质量      拼写和语法的正确性 
39   1.4     页面质量      HTML代码是否通过W3C认证 
40   1.3     网站品质      网站是否通过Google Webmaster Central的确认 
41   1.2     关键词          关键词在Meta Keywords中的使用 
  
分类总得分: 

网站品质:39.9
外部链接:31.5
关键词:29.7
页面质量:21.8
  转载自:网上购物http://www.guang58.com/ 
  通过这个统计大家看出什么了?当网站排名上不去的时候,哪一部分没做好呢?
  
  下面还有影响排名的负面因素:
  

      影响Google排名的负面因素
  排名 得分 详细说明 

  1 3.8 服务器经常无法响应 
  2 3.6 与Google已经收录的内容高度重复 
  3 3.6 链向低质量或垃圾站点 
  4 3.3 网站大量页面存在重复的META标签 
  5 3.3 过分堆砌关键词 
  6 3.3 参与链接工厂或大量出售链接 
  7 2.8 服务器响应时间非常慢 
  8 2.1 外部链接来自垃圾站点 
  9 2.1 非常低的流量,用户行为反映差

转载自:网上购物http://www.guang58.com/ 

百度蜘蛛(Baiduspider+)爬行返回代码的含义。

2XX 成功

  200 正常;请求已完成。

  201 正常;紧接 POST 命令。

  202 正常;已接受用于处理,但处理尚未完成。

  203 正常;部分信息 — 返回的信息只是一部分。

  204 正常;无响应 — 已接收请求,但不存在要回送的信息。

  3XX 重定向

  301 已移动 — 请求的数据具有新的位置且更改是永久的。

  302 已找到 — 请求的数据临时具有不同 URI。

  303 请参阅其它 — 可在另一 URI 下找到对请求的响应,且应使用 GET 方法检索此响应。

  304 未修改 — 未按预期修改文档。

  305 使用代理 — 必须通过位置字段中提供的代理来访问请求的资源。

  306 未使用 — 不再使用;保留此代码以便将来使用。

  4xx 客户机中出现的错误

  400 错误请求 — 请求中有语法问题,或不能满足请求。

  401 未授权 — 未授权客户机访问数据。

  402 需要付款 — 表示计费系统已有效。

  403 禁止 — 即使有授权也不需要访问。

  404 找不到 — 服务器找不到给定的资源;文档不存在。

  407 代理认证请求 — 客户机首先必须使用代理认证自身。

  410 请求的网页不存在(永久);

  415 介质类型不受支持 — 服务器拒绝服务请求,因为不支持请求实体的格式。

  5xx 服务器中出现的错误

  500 内部错误 — 因为意外情况,服务器不能完成请求。

  501 未执行 — 服务器不支持请求的工具。

  502 错误网关 — 服务器接收到来自上游服务器的无效响应。

  503 无法获得服务 — 由于临时过载或维护,服务器无法处理请求。

转载自:http://www.guang58.com

  举例:
  2008-07-24 15:09:52 HEAD /index.html 220.181.32.22 HTTP/1.1 Baiduspider+(+http://www.baidu.com/search/spider.htm) – 200 322 151
  说明该页蜘蛛已经收录入库,具体200后面数字的含义还未找到解释。 

网页加速的14条优化法则

最近,在做Web应用性能优化,在网上发现了文章High Performance Web Sites: The Importance of Front-End Performance,感觉其14条优化法则很实用,操作性很强。因此发出来,供大家参考。

Web应用性能优化黄金法则:先优化前端程序(front-end)的性能,因为这是80%或以上的最终用户响应时间的花费所在。<o:p></o:p>

法则1. 减少HTTP请求次数

80%的最终用户响应时间花在前端程序上,而其大部分时间则花在各种页面元素,如图像、样式表、脚本和Flash等,的下载上。减少页面元素将会减少HTTP请求次数。这是快速显示页面的关键所在。

一种减少页面元素个数的方法是简化页面设计。但是否存在其他方式,能做到既有丰富内容,又能获得快速响应时间呢?以下是这样一些技术:

Image maps组合多个图片到一张图片中。总文件大小变化不大,但减少了HTTP请求次数从而加快了页面显示速度。该方式只适合图片连续的情况;同时坐标的定义是烦人又容易出错的工作。

CSS Sprites是更好的方法。它可以组合页面中的图片到单个文件中,并使用CSS的background-image和background-position属性来现实所需的部分图片。

Inline images使用data: URL scheme来在页面中内嵌图片。这将增大HTML文件的大小。组合inline images到你的(缓存)样式表是既能较少HTTP请求,又能避免加大HTML文件大小的方法。

Combined files通过组合多个脚本文件到单一文件来减少HTTP请求次数。样式表也可采用类似方法处理。这个方法虽然简单,但没有得到大规模的使用。10大美国网站每页平均有7个脚本文件和2个样式表。当页面之间脚本和样式表变化很大时,该方式将遇到很大的挑战,但如果做到的话,将能加快响应时间。

减少HTTP请求次数是性能优化的起点。这最提高首次访问的效率起到很重要的作用。据Tenni Theurer的文章Browser Cache Usage – Exposed!描述,40-60%的日常访问是首次访问,因此为首次访问者加快页面访问速度是用户体验的关键。

法则2. 使用CDN(Content Delivery Network, 内容分发网络)

用户离web server的远近对响应时间也有很大影响。从用户角度看,把内容部署到多个地理位置分散的服务器上将有效提高页面装载速度。但是该从哪里开始呢?

作为实现内容地理分布的第一步,不要试图重构web应用以适应分布架构。改变架构将导致多个周期性任务,如同步session状态,在多个server之间复制数据库交易。这样缩短用户与内容距离的尝试可能被应用架构改版所延迟,或阻止。

我们还记得80-90%的最终用户响应时间花在下载页面中的各种元素上,如图像文件、样式表、脚本和Flash等。与其花在重构系统这个困难的任务上,还不如先分布静态内容。这不仅能大大减少响应时间,而且由于CDN的存在,分布静态内容非常容易实现。

CDN是地理上分布的web server的集合,用于更高效地发布内容。通常基于网络远近来选择给具体用户服务的web server。

一些大型网站拥有自己的CDN,但是使用如Akamai TechnologiesMirror Image Internet, 或 Limelight Networks等CDN服务提供商的服务将是划算的。在Yahoo!把静态内容分布到CDN减少了用户影响时间20%或更多。切换到CDN的代码修改工作是很容易的,但能达到提高网站的速度。

法则3. 增加Expires Header

网页内容正变得越来越丰富,这意味着更多的脚本文件、样式表、图像文件和Flash。首次访问者将不得不面临多次HTTP请求,但通过使用Expires header,您可以在客户端缓存这些元素。这在后续访问中避免了不必要的HTTP请求。Expires header最常用于图像文件,但是它也应该用于脚本文件、样式表和Flash。

浏览器(和代理)使用缓存来减少HTTP请求的次数和大小,使得网页加速装载。Web server通过Expires header告诉客户端一个元素可以缓存的时间长度。

如果服务器是Apache的话,您可以使用ExpiresDefault基于当期日期来设置过期日期,如:

ExpiresDefault “access plus 10 years” 设置过期时间为从请求时间开始计算的10年。

请记住,如果使用超长的过期时间,则当内容改变时,您必须修改文件名称。在Yahoo!我们经常把改名作为release的一个步骤:版本号内嵌在文件名中,如yahoo_<st1:chsdate w:st="on" isrocdate="False" islunardate="False" day="30" month="12" year="1899">2.0.6</st1:chsdate>.js。

法则4. 压缩页面元素

通过压缩HTTP响应内容可减少页面响应时间。从HTTP/1.1开始,web客户端在HTTP请求中通过Accept-Encoding头来表明支持的压缩类型,如:

Accept-Encoding: gzip, deflate.

如果Web server检查到Accept-Encoding头,它会使用客户端支持的方法来压缩HTTP响应,会设置Content-Encoding头,如:Content-Encoding: gzip。

Gzip是目前最流行及有效的压缩方法。其他的方式如deflate,但它效果较差,也不够流行。通过Gzip,内容一般可减少70%。如果是Apache,在1.3版本下需使用mod_gzip模块,而在2.x版本下,则需使用mod_deflate

Web server根据文件类型来决定是否压缩。大部分网站对HTML文件进行压缩。但对脚本文件和样式表进行压缩也是值得的。实际上,对包括XML和JSON在内的任务文本信息进行压缩都是值得的。图像文件和PDF文件不应该被压缩,因为它们本来就是压缩格式保存的。对它们进行压缩,不但浪费CPU,而且还可能增加文件的大小。

因此,对尽量多的文件类型进行压缩是一种减少页面大小和提高用户体验的简便方法。

法则5. 把样式表放在头上

我们发现把样式表移到HEAD部分可以提高界面加载速度,因此这使得页面元素可以顺序显示。

在很多浏览器下,如IE,把样式表放在document的底部的问题在于它禁止了网页内容的顺序显示。浏览器阻止显示以免重画页面元素,那用户只能看到空白页了。Firefox不会阻止显示,但这意味着当样式表下载后,有些页面元素可能需要重画,这导致闪烁问题。

HTML规范明确要求样式表被定义在HEAD中,因此,为避免空白屏幕或闪烁问题,最好的办法是遵循HTML规范,把样式表放在HEAD中。

法则6. 把脚本文件放在底部

与样式文件一样,我们需要注意脚本文件的位置。我们需尽量把它们放在页面的底部,这样一方面能顺序显示,另方面可达到最大的并行下载。

浏览器会阻塞显示直到样式表下载完毕,因此我们需要把样式表放在HEAD部分。而对于脚本来说,脚本后面内容的顺序显示将被阻塞,因此把脚本尽量放在底部意味着更多内容能被快速显示。

脚本引起的第二个问题是它阻塞并行下载数量。HTTP/1.1规范建议浏览器每个主机的并行下载数不超过2个。因此如果您把图像文件分布到多台机器的话,您可以达到超过2个的并行下载。但是当脚本文件下载时,浏览器不会启动其他的并行下载,甚至其他主机的下载也不启动。

在某些情况下,不是很容易就能把脚本移到底部的。如,脚本使用document.write方法来插入页面内容。同时可能还存在域的问题。不过在很多情况下,还是有一些方法的。

一个备选方法是使用延迟脚本(deferred script)。DEFER属性表明脚本未包含document.write,指示浏览器刻继续显示。不幸的是,Firefox不支持DEFER属性。在IE中,脚本可能被延迟执行,但不一定得到需要的长时间延迟。不过从另外角度来说,如果脚本能被延迟执行,那它就可以被放在底部了。

法则7. 避免CSS表达式

CSS表达式是功能强大的(同时也是危险的)用于动态设置CSS属性的方式。IE,从版本5开始支持CSS表达式,如backgourd-color: expression((new Date()).getHours()%2?”#B8D4FF”:”#F<st1:chmetcnv w:st="on" tcsc="0" numbertype="1" negative="False" hasspace="False" sourcevalue="8" unitname="a">08A</st1:chmetcnv><st1:chmetcnv w:st="on" tcsc="0" numbertype="1" negative="False" hasspace="False" sourcevalue="0" unitname="”">00”</st1:chmetcnv>),即背景色每个小时切换一次。

CSS表达式的问题是其执行次数超过大部分人的期望。不仅页面显示和resize时计算表达式,而且当页面滚屏,甚至当鼠标在页面上移动时都会重新计算表达式。

一种减少CSS表达式执行次数的方法是一次性表达式,即当第一次执行时就以明确的数值代替表达式。如果必须动态设置的话,可使用事件处理函数代替。如果您必须使用CSS表达式的话,请记住它们可能被执行上千次,从而影响页面性能。

法则8. 把JavaScript和CSS放到外部文件中

上述很多性能优化法则都基于外部文件进行优化。现在,我们必须问一个问题:JavaScript和CSS应该包括在外部文件,还是在页面文件中?

在现实世界中,使用外部文件会加快页面显示速度,因为外部文件会被浏览器缓存。如果内置JavaScript和CSS在页面中虽然会减少HTTP请求次数,但增大了页面的大小。另外一方面,使用外部文件,会被浏览器缓存,则页面大小会减小,同时又不增加HTTP请求次数。

因此,一般来说,外部文件是更可行的方式。唯一的例外是内嵌方式对主页更有效,如Yahoo!My Yahoo!都使用内嵌方式。一般来说,在一个session中,主页访问此时较少,因此内嵌方式可以取得更快的用户响应时间。

法则9. 减少DNS查询次数

DNS用于映射主机名和IP地址,一般一次解析需要20~120毫秒。为达到更高的性能,DNS解析通常被多级别地缓存,如由ISP或局域网维护的caching server,本地机器操作系统的缓存(如windows上的DNS Client Service),浏览器。IE的缺省DNS缓存时间为30分钟,Firefox的缺省缓冲时间是1分钟。

减少主机名可减少DNS查询的次数,但可能造成并行下载数的减少。避免DNS查询可减少响应时间,而减少并行下载数可能增加响应时间。一个可行的折中是把内容分布到至少2个,最多4个不同的主机名上。

法则10. 最小化JavaScript代码

最小化JavaScript代码指在JS代码中删除不必要的字符,从而降低下载时间。两个流行的工具是JSMin 和YUI Compressor

混淆是最小化于源码的备选方式。象最小化一样,它通过删除注释和空格来减少源码大小,同时它还可以对代码进行混淆处理。作为混淆的一部分,函数名和变量名被替换成短的字符串,这使得代码更紧凑,同时也更难读,使得难于被反向工程。Dojo Compressor (ShrinkSafe)是最常见的混淆工具。

最小化是安全的、直白的过程,而混淆则更复杂,而且容易产生问题。从对美国10大网站的调查来看,通过最小化,文件可减少21%,而混淆则可减少25%。

除了最小化外部脚本文件外,内嵌的脚本代码也应该被最小化。即使脚本根据法则4被压缩后传输,最小化脚本刻减少文件大小5%或更高。

法则11. 避免重定向

重定向功能是通过301和302这两个HTTP状态码完成的,如:

      HTTP/1.1 301 Moved Permanently      Location: http://example.com/newuri      Content-Type: text/html

<o:p> </o:p>

浏览器自动重定向请求到Location指定的URL上,重定向的主要问题是降低了用户体验。

一种最耗费资源、经常发生而很容易被忽视的重定向是URL的最后缺少/,如访问http://astrology.yahoo.com/astrology将被重定向到http://astrology.yahoo.com/astrology/。在Apache下,可以通过Alias,mod_rewrite或DirectorySlash等方式来解决该问题。

法则12. 删除重复的脚本文件

在一个页面中包含重复的JS脚本文件会影响性能,即它会建立不必要的HTTP请求和额外的JS执行。

不必要的HTTP请求发生在IE下,而Firefox不会产生多余的HTTP请求。额外的JS执行,不管在IE下,还是在Firefox下,都会发生。

一个避免重复的脚本文件的方式是使用模板系统来建立脚本管理模块。除了防止重复的脚本文件外,该模块还可以实现依赖性检查和增加版本号到脚本文件名中,从而实现超长的过期时间。

法则13. 配置ETags

ETags是用于确定浏览器缓存中元素是否与Web server中的元素相匹配的机制,它是比last-modified date更灵活的元素验证机制。ETag是用于唯一表示元素版本的字符串,它需被包括在引号中。Web server首先在response中指定ETag:

      HTTP/1.1 200 OK      Last-Modified: Tue, 12 Dec 2006 03:03:59 GMT      ETag: "<st1:chmetcnv w:st="on" tcsc="0" numbertype="1" negative="False" hasspace="False" sourcevalue="10" unitname="C">10c</st1:chmetcnv>24bc-4ab-457e<st1:chmetcnv w:st="on" tcsc="0" numbertype="1" negative="False" hasspace="False" sourcevalue="1" unitname="C">1c</st1:chmetcnv><st1:chmetcnv w:st="on" tcsc="0" numbertype="1" negative="False" hasspace="False" sourcevalue="1" unitname="F">1f</st1:chmetcnv>"      Content-Length: 12195

后来,如果浏览器需要验证某元素,它使用If-None-Match头回传ETag给Web server,如果ETag匹配,则服务器返回304代码,从而节省了下载时间:

      GET /i/yahoo.gif HTTP/1.1      Host: us.yimg.com      If-Modified-Since: Tue, 12 Dec 2006 03:03:59 GMT      If-None-Match: "<st1:chmetcnv w:st="on" tcsc="0" numbertype="1" negative="False" hasspace="False" sourcevalue="10" unitname="C">10c</st1:chmetcnv>24bc-4ab-457e<st1:chmetcnv w:st="on" tcsc="0" numbertype="1" negative="False" hasspace="False" sourcevalue="1" unitname="C">1c</st1:chmetcnv><st1:chmetcnv w:st="on" tcsc="0" numbertype="1" negative="False" hasspace="False" sourcevalue="1" unitname="F">1f</st1:chmetcnv>"      HTTP/1.1 304 Not Modified

ETags的问题在于它们是基于服务器唯一性的某些属性构造的,如Apache1.3和2.x,其格式是inode-size-timestamp,而在IIS5.0和6.0下,其格式是Filetimestamp:ChangeNumber。这样同一个元素在不同的web server上,其ETag是不一样的。这样在多Web server的环境下,浏览器先从server1请求某元素,后来向server2验证该元素,由于ETag不同,所以缓存失效,必须重新下载。

因此,如果您未用到ETags系统提供的灵活的验证机制,最好删除ETag。删除ETag会减少http response及后续请求的HTTP头的大小。微软支持文章描述了如何删除ETags,而在Apache下,只要在配置文件中设置FileETag none即可。

法则14. 缓存Ajax

性能优化法则同样适用于web 2.0应用。提高Ajax的性能最重要的方式是使得其response可缓存,就象“法则3增加Expires Header”讨论的那样。以下其他法则同样适用于Ajax,当然法则3是最有效的方式:

法则4. 压缩页面元素

法则9. 减少DNS查询次数

法则10. 最小化脚本文件

法则11. 避免重定向

法则13. 配置ETags.

转载自:http://www.guang58.com/

百度排名下降的(降权)10大因素

1.标题频繁性更改。尤其是修改为与之前标题丝毫不相关的标题。频繁改动标题导致的降权通常需要整整30天才能恢复。

2.站内关键词多度堆砌。在这里用过度2字是因为目前主流的搜索引擎都比较智能的不再很重的依赖关键词的密度作为权重判别标准,所以堆砌现象不一定导致被K,而过度堆砌则需要小心了。事实上这对百度优化来说没啥好处。

3.服务器不稳定。因为服务器不稳定导致的SEO失败是很可悲的,当然在中国摊上一个垃圾服务器供应商的事是很正常的。我的博客在第一次使用便宜空间之后,一个月之内没收录,收录之后又因为收录问题被降权一个多月,哭笑不得!无奈只好更换空间。

4.友情链接被搜索引擎重度惩罚。这里所说的重度惩罚是指被K,被拔毛,首页被降权等严重处罚手段,这种情况对做百度优化的网站来说,影响很大很大。是一个非常值得重视的方面。尤其是新站,这直接关系到你的站点的命运。

5.添加大量采集内容。这里建议就是内容需要有一定比率的原创,这个比率请自己设定。实在不行,请使用百度暂不能识别的伪原创方法造文章吧!注意,是百度不能识别的伪原创方法。

6.被挂黑链。这个不用太多解释吧!许多高权重政府站,门户站,都在黑链的嚣张身影中淡出了搜索引擎。

7.外链丢失率过高。这是搜索引擎的高明之处,通过这种方式能够轻松的查找到许多采用“非常手段”优化的网站,将其消失于无形。

8.过度环链。恩,近年来屡见不鲜,人工封杀最是可怕。

9.大量友情链接被撤除导致降权。这应该属于第7条,不过将其单独拿出来说,是因为有许多网站改版的时候偶尔并没有顾及到友情链接那个小木块,许多站长发现自己的友情链接没有后也会马上删除对方,这也就导致大量友情链接同时被撤除的现象会产生。

10.大量的子域名和内容雷同页面。许多不合理的子域名、泛解析等方式会导致百度严重降权。内容页面的大量URL内容雷同会被搜索引擎进行很大的剥离去重,甚至进行降权。

查看godaddy的网站日志文件(log文件)

     GoDaddy日志文件里有统计拜访记载,包括蜘蛛匍匐记载, 拜访错误记载等外容, 很利于seo以及察看本人网站的运转情况,如今教大家如何检查godaddy空间的日志文件

      首先需求用阅读器拜访yourdomain.com/stats/logs再用主机的主ftp用户名登录就可以进入了。这里的”yourdomain.com”要用你的主机的主域名替代。

       另外假如间接用阅读器拜访yourdomain.com/stats 还能进入一个片面的报告面板,这里有你的空间的一些运用状况,有每天的报告,还有周的,月的,十分片面。

   赶忙去godaddy试试吧!

SEO之关于百度蜘蛛Baiduspider

1. 什么是Baiduspider

Baiduspider是百度搜索引擎的一个自动顺序,它的作用是访问互联网上的网页,树立索引数据库,运用户能在百度搜索引擎中搜索到您网站上的网页。

2. Baiduspider的user-agent是什么?

百度各个产品运用不同的user-agent:

产品称号对应user-agent无线搜索Baiduspider-mobile图片搜索Baiduspider-image视频搜索Baiduspider-video旧事搜索Baiduspider-news百度搜藏Baiduspider-favo百度联盟Baiduspider-cpro商务搜索Baiduspider-ads网页以及其他搜索Baiduspider3. Baiduspider对一个网站效力器构成的访问压力如何?

Baiduspider会自动根据效力器的负载才干调理访问密度。在延续访问一段日子后,Baiduspider会暂停一会,以防止增大效力器的访问压力。所以在普通情况下,Baiduspider对您网站的效力器不会构成过大压力。

4. 为什么Baiduspider不停的抓取在下的网站?

关于您网站上新发作的或许持续更新的页面,Baiduspider会持续抓取。此外,您也可以反省网站访问日志中Baiduspider的访问能否正常,以防止有人恶意冒充Baiduspider来频繁抓取您的网站。 假设您发现Baiduspider非正常抓取您的网站,请经过赞扬平台反响给俺们,并请尽量给出Baiduspider对贵站的访问日志,以便于俺们跟踪处置。

5. 如何判别能否冒充Baiduspider的抓取?

您可以运用host ip命令反解ip来判别Baiduspider的抓取能否冒充。Baiduspider的hostname以 *.baidu.com 或 *.baidu.jp 的格式命名,非 *.baidu.com 或 *.baidu.jp 即为冒充。
$ host 123.125.66.120 
120.66.125.123.in-addr.arpa domain name pointer 
baiduspider-123-125-66-120.crawl.baidu.com.

host 119.63.195.254
254.195.63.119.in-addr.arpa domain name pointer 
BaiduMobaider-119-63-195-254.crawl.baidu.jp.

6. 在下不想在下的网站被Baiduspider访问,在下该怎样做?

Baiduspider遵守互联网robots协议。您可以使用robots.txt文件完全制止Baiduspider访问您的网站,或许制止Baiduspider访问您网站上的部分文件。 留意:制止Baiduspider访问您的网站,将使您的网站上的网页,在百度搜索引擎以及一切百度提供搜索引擎效力的搜索引擎中无法被搜索到。关于robots.txt的写作方法,请参看俺们的引见:robots.txt写作方法 

您可以根据各产品不同的user-agent设置不同的抓取规则,假设您想完全制止百度一切的产品收录,可以直接对Baiduspider设置制止抓取。

以下robots完成制止一切来自百度的抓取:
User-agent: Baiduspider
Disallow: /

以下robots完成仅制止来自百度视频搜索的抓取:
User-agent: Baiduspider-video
Disallow: /

以下robots完成制止一切来自百度的抓取但允许图片搜索抓取/image/目录:
User-agent: Baiduspider
Disallow: /

User-agent: Baiduspider-image
Allow: /image/

请留意:

Baiduspider-cpro抓取的网页并不会建入索引,只是执行与客户商定的操作,所以不遵守robots协议,假设Baiduspider-cpro给您构成了困扰,请联络[email protected]

Baiduspider-ads抓取的网页并不会建入索引,只是执行与客户商定的操作,所以不遵守robots协议,假设Baiduspider-ads给您构成了困扰,请联络您的客户效力专员。

7. 为什么在下的网站已经加了robots.txt,还能在百度搜索出来?

由于搜索引擎索引数据库的更新需求日子。虽然Baiduspider已经中止访问您网站上的网页,但百度搜索引擎数据库中已经树立的网页索引信息,可以需求数月日子才会肃清。另外也请反省您的robots配置能否正确。
假设您的拒绝被收录需求非常急迫,也可以经过百度赞扬平台反响央求处置。

8. 在下希望在下的网站内容被百度索引但不被保管快照,在下该怎样做?

Baiduspider遵守互联网meta robots协议。您可以使用网页meta的设置,使百度显示只对该网页建索引,但并不在搜索结果中显示该网页的快照。
和robots的更新一样,由于搜索引擎索引数据库的更新需求日子,所以虽然您已经在网页中经过meta制止了百度在搜索结果中显示该网页的快照,但百度搜索引擎数据库中假设已经树立了网页索引信息,可以需求二至四周才会在线上生效。

9. Baiduspider多长日子之后会重新抓取在下的网页?

百度搜索引擎每周更新,网页视重要性有不同的更新率,频率在几天至一月之间,Baiduspider会重新访问和更新一个网页。

10. Baiduspider抓取构成的带宽堵塞?

Baiduspider的正常抓取并不会构成您网站的带宽堵塞,构成此现象可以是由于有人冒充Baiduspider恶意抓取。假设您发现有名为Baiduspider的agent抓取并且构成带宽堵塞,请尽快和俺们联络。您可以将信息反响至赞扬平台,假设可以提供您网站该时段的访问日志将愈加有利于俺们的分析。

godaddy PHP4切换到PHP5方法

今天安装一个 网站系统,提示错误,估计是版本问题所以去godaddy管理后台看了一下,发现后台显示的版本是5.X。
然后又上传了一个PHP探针测试出来空间PHP版本却是4.4.9。

跟godaddy的客服沟通了来回三四天,结果都无法解决问题,那客服确实比较白痴。

终于,我看到一个神贴,就此解救我。

PHP4切换到PHP5方法

首先打开.htaccess打开添加以下内容:

复制内容到剪贴板代码:AddHandler x-httpd-php5 .php
AddHandler x-httpd-php .php4

然后再将php.ini改为php5.ini 即可从PHP4切换到PHP5。

然后将:.htaccess和php5.ini 上传到根目录就可以了!立马生效

哎,浪费了我很久时间!