前两天在单位忽然说我们的项目中大概有多少行代码,都在那开玩笑呢,呵呵。今儿本来想写段程序看一下呢,发现伟大的搜索引擎里面啥都有哈哈!
统计cn目录下,php文件数量:
find cn/ -name “*.php” |wc -l
统计cn目录下所有php文件代码行数。
find cn/ -name “*.php” |xargs cat|wc -l
或者
wc -l `find ./ -name “*.php”`|tail -n1
统计a目录下所有php文件代码行数,过滤了空行
find /a -name “*.php” |xargs cat|grep -v ^$|wc -l
于是 在我们服务器上算了一下,不算不知道,一算吓一跳啊:
[root@w9 www]# find ./infov2 -name “*.php” |xargs cat|grep -v ^$|wc -l
1750160
[root@w9 www]...
开发过WEB的朋友对这个都深有体会,如果做出来的网站可以不需要支持IE6,工作量可能会减少一半,界面能更漂亮,用户的浏览体验也会更好。
IE6是广大前端开发者的噩梦,这么多年一直缠绕在身边;那么,我们的网站可以不支持IE6么?
GeForce的态度
如果你的网站足够牛,其内容能够让用户为了浏览你的站点,不惜去换个浏览器也得访问,那么你也可以这样:
当你用IE6访问
http://www.geforce.cn/,则直接跳转到这么一个noIE6的页面:

当然,我们需要认识到,Geforce是做显卡、做游戏这这一块的公司,他所面对的用户群主体是30岁之前的年轻群体,这一类人容易接受新事物,也愿意为之改变。
微软的态度
IE6是微软开发的,那么他的态度如何?
微软早就明确表明态度,并做出了实际行动。
为了让用户停止使用IE6,公司发起一系列活动促使IE6用户能够升级到新版本浏览器,为了继续推动IE6淘汰的进程,微软发...
硬盘缓存:mod_disk_cache,依赖 mod_cache 模块
内存缓存:mod_mem_cache,依赖 mod_cache 模块
文件缓存:mod_file_cache 搭配 mod_mem_cache 模块使用
1、硬盘缓存:
配置例子:
<IfModule mod_mem_cache.c>
CacheDefaultExpire 86400
CacheEnable disk /
CacheRoot /tmp/apacheCache
CacheDirLevels 5
CacheDirLength 5
CacheMaxFileSize 1048576
CacheMinFileSize 10
</IfModule>
CacheDefaultExpire: 设定缓存过期的时间(秒),默认是1小时,只有当缓存的文档没有设置过期时间或最后修改时间时这...
首先,如题所说,本文所说的优化是针对apache 2.2以上版本,及使用perfork MPM模式的。perfork是apache在linux下默认安装下的模式,如果使用apache作为服务器的放在,还是使用perfork模式比较 好,worker模式下对php某些功能并不支持。如果你使用的是win系统或都没有使有和perfork,那么下面可以选择不看或抱着学习的态度看看 咯。
以下内容均属于博主自己的见解,实际测试请根据你的服务器,程序及其他因素按需处理。
一般情况下,我们需要优化apache就是因为apache占用大量的内存,导致vps当机,因为perfork是多进程处理的,每个进程都会点用 一定的内存数量。所以限制httpd进程的数量,从而达到优化apache的作用。影响单个httpd进程的内存大小,主要都是加载模块,至少什么模块是 合适的,我也很难说,因为这个是按由你的需要而定的。网上...
Fireworks抠图一直以来就不是很灵光,所以有时为了图片效果好一些,不得不请Photoshop兄弟来帮忙,不过PS兄的体格实在壮硕,用 惯了FW还真玩不转这位老兄。这不,为了更好的发挥FW同学的潜能,特地跑到隔壁看看人家PS兄是如何进行抠图训练的。看了半天,找了本叫做“我的图片我 做主——之抠图篇(抠图方法大汇总) ”的新人教材回来,仔细研读收益颇丰。
方法一:利用魔术棒、套索工具抠图这方法比较简单,就和出拳、踢腿一样,会不会功夫动起手都能使两下。用Fireworks作东东的朋友应该比较熟悉,处理一些简单的抠图时大家都会用到它们。
1.魔术棒的应用:
简要步骤:(1)选魔术棒工具;(2)点击空白区域;(3)反选;(4)羽化;(5)后期处理;

2.套索的应用:
由于Fireworks没有磁性套索工具,只有套索和多边型套索以及两个选区框工具,因此用它来抠图很笨拙,有那个时间还不如用钢笔工具方便,所以...
robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。通常认为,robots.txt文件用来搜索引擎对目标网页的抓取。
robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。
对于Google来说,使用robots也未必能阻止Google将网址编入索引,如果有其他网站链接到该网页的话,Google依然有可能会对其进行索引。按照Google的说法,要想彻底阻止网页的内容在Google网页索引中(即使有其他网站链接到该网页)出现,需要使用noindex元标记或x-robots-tag。例如将下面的一行加入到网页的header部分。
<meta name="googlebot" content="noindex&q...
εїз♂ ♀ ♥ ♡ ☜ ☞ ☎ ☏ ⊙ ◎ ☺ ☻ ► ◄ ♨ ◐ ◑ ↔ ↕ ▪ ▫ ☼ ♦ ▀ ▄ █ ▌ ▐ ░ ▒ ▬ ♦ ◊ ◦ ☼ ♠ ♣ ▣ ▤ ▥ ▦ ▩ ◘ ◙ ◈ ♫ ♬ ♪
♩ ♭ ♪ の ☆→ あ ぃ £ ▧ ▨ ♠ ♣๑•ิ.•ั๑๑۩۞۩๑ ♪ ♬ ⓛⓞⓥⓔ ๑۩ﺴ ♬ ♫ ♪
♯♭ $ ஐﻬ◎ ﻬஐ の ☆→ あ ぃ £ ♥『』Ψ № ∑ ⌒〖〗@ξζ∮ ▓ ∏ 卐【】√ ¤ ╋
☞☜︶ இ ℡.○● 彡 ° ₪ ௫ ★ ☆ ⊙ ☺ ☻ ☼ ♠ ♡ ♣ ♤ ♥ ♦ ♧ ♨ ♩ 〠 〄 ㍿ ♩♪♫♬ 큐 ™
㊣㊚㊛㊙㊝㊊㊋㊌㊍㊎㊏㊐
⓪ ①②③④⑤⑥⑦⑧⑨⑩⑪⑫⑬⑭⑮⑯⑰⑱⑲⑳
ⓐ ⓑ ⓒ ⓓ ⓔ ⓕ ⓖ ⓗ ⓘ ⓙ ⓚ ⓛ ⓜ ⓝ ⓞ ⓟ ⓠ ⓡⓢ ⓣ ⓤ ⓥ ⓦ ⓧ ⓨ ⓩ
㊀㊁㊂㊃㊄㊅㊆㊇㊈㊉
º¹²³⁴⁵⁶⁷⁸⁹
◊ ◦☼ ▣ ▤ ▥ ❤ 。◕‿◕。♩ ♭ ♪ の▦...
验证成果表白,Win7的确是兼容性很强,以前是本身没找对方法而已,在此与列位还在苦寻Win7下安装SQL2000的网友分享一下吧。
方法其实很简略:
计较机——(右键)管理——体系工具——本地用户和组,启用administrator帐户,然后切换用户到administrator,运行安装步伐,安装完会发现办事已经可以或许启动了,然后再回到以前帐户就可以了,最后把administrator帐户禁用吧,开着太危险了。其实要是是win7支持的步伐应该是不会有这个不懂的题目的,毕竟sql server 2000明明比较老了,不过这也从一个方面申明win7的兼容性还是很好的,只是有时会需要动点脑子处理完成一下。最好要提醒一下安装sql server 2000的朋友,要是你安装完后发现运行不明了后删除了,又想在安装一遍的话,可能即使你照着我说的做了也会出现安装失败,这里是安装失败而不是运行失败...
65.49.26.99 twitter.com
65.49.26.98 si0.twimg.com
65.49.26.98 si1.twimg.com
65.49.26.98 si2.twimg.com
65.49.26.98 si3.twimg.com
65.49.26.98 si4.twimg.com
65.49.26.98 si5.twimg.com
65.49.26.97 api.twitter.com
69.63.189.16 facebook.com
69.63.189.16 www.facebook.com
69.63.181.20 login.facebook.com
95.101.242.110 s-static.ak.facebook.com
64.30.224.112 secure-profile.facebook.com
69.63.176.59 secure-media-sf2p.face...